silicon.de: Cloud-Computing ist in aller Munde und Virtualisierung ist der Schlüssel dazu. Nach der Server-Virtualisierung kommt die Speicher-Virtualisierung in Schwung, das müsste doch für Datacore wunderbar sein.
Teixeira: Ja, der Markt wächst. Allerdings tut sich der Mittelstand schwer damit: 55 Prozent aller angefangenen Virtualisierungsprojekte werden gestoppt.
silicon.de: Weshalb denn?
Teixeira: Dafür gibt es drei Gründe. Erstens steigen die Kosten für die Speicher, zweitens leidet die Performance und drittens wird die Hochverfügbarkeit vernachlässigt.
silicon.de: Das müssen Sie erklären.
Teixeira: Die Kosten für die Speicher in virtuellen Umgebungen verlangsamen die Verbreitung der Virtualisierung insgesamt. Bislang haben nur rund 20 Prozent der Unternehmen ihre Rechner virtualisiert und es stellt sich die Frage, wie viel haben sie virtualisiert? Ich schätze, vielleicht 20 Prozent des Bestands.
silicon.de: Ein Ziel der Virtualisierung ist doch, Kosten zu sparen, Sie behaupten, die Kosten steigen.
Teixeira: Bei derzeitigen Virtualisierungsprojekten wird meist vergessen, dass neue Speicher verwendet werden müssen, das macht die Sache unerwartet teuer.
silicon.de: Das erklärt, wieso EMC damals VMware gekauft hat: Server-Virtualisierung zieht neue Speicher nach sich?
Teixeira: Alle konsolidierten Server oder Desktop-Rechner brauchen einen gemeinsamen Speicher – und zwar hochwertigen. Fällt bei einem herkömmlichen Rechner einmal die Festplatte aus ist das ärgerlich, bei einer virtualisierten Maschine kommt es einer Katastrophe gleich, wenn viele Anwender und Anwendungen still stehen.
silicon.de: Wie löst Datacore dieses Problem?
Teixeira: Ganz einfach: Der Anwender verwendet seinen vorhandenen Speicher weiter, allerdings unter der Datacore-Infrastruktur.
silicon.de: Klingt trivial. Was unterscheidet Datacore von den Wettbewerbern?
Teixeira: Wir verstehen uns als Lieferant von Storage-Infrastruktur. Datacore ist ein Speichervirtualisierer.
silicon.de: So wie beispielsweise VMware bei den Rechnern…
Page: 1 2
Fred, der KI-gesteuerte digitale Assistent, nutzt den Generative AI Service der OCI und die Oracle…
Cyberkriminelle verstärken Angriffe mit FakeUpdates und RansomHub als Schlüsselwerkzeuge.
Autonom agierende Agenten werden Sicherheitsteams bei der Angriffsabwehr unterstützen, sagt Zac Warren von Tanium.
Schweden hat in seiner Entwicklung hin zu einer bargeldlosen Gesellschaft einen überraschenden Rückzieher gemacht. Diese…
"Uns geht es vielmehr darum aufzuzeigen, wie Open-Source-KI realisierbar ist", sagt Jan Wildeboer von Red…
View Comments
datacore
Viel Spaß mit verlorenen LUN´s, defekten Config´s und virtueller HA.
Das Problem von datacore ist die Basis, also der MS-Server der darunter ist.
Sanmelody ist nur ein Dienst, der auf dem M$-Server läuft. Kann nicht gut funzen. Storage-Virtualisierung läuft m.E. nur auf Linux-Basis gut. Also Falconstor oder ....
Lasst die Finger davon!!!
datacore
tolle Software, kann ich jedem weiterempfehlen. Den MS-Server für Datacore sollte man als Blackbox und Storageappliance sehen - ohne ihn ständig upzudaten läuft die Sache sehr gut. SanMelody ist ja ein Produkt welches ablaufen wird. Bis auf die etwas gewöhnungsbedürftige administration sehe ich keine Nachteile von SanMelody für ein mittelständisches Unternehmen welches ein hardwareunabhängiges, gespiegeles und performantes Storage nutzen will.