Datacore-CEO: “Speicherkosten bremsen Virtualisierung”
Datacore bietet seit Jahren Software zur Speicher-Virtualisierung an. Zur Vorstellung der neuen Version V der Virtualisierungssoftware ‘SANsymphony’ kam Firmenchef George Teixeira, CEO und President, von Fort Lauderdale nach München und stellte sich den Fragen von silicon.de.
Teixeira: … oder Cisco bei den Netzen. Unsere Software SANsymphony sitzt oberhalb der Hardware, sie macht den Speicher darunter anonym.
silicon.de: Was heißt das?
Teixeira: Eine Datacore-Infrastruktur kann die darunterliegende Hardware austauschbar machen, wir stellen keine Anforderungen an die Speicher. Im Gegenteil machen wir die vorhandenen Subsysteme sogar besser.
silicon.de: Wie soll das passieren?
Teixeira: Mit dem eingebauten ‚adaptive Caching‘. Damit halten wir die meisten Daten, die normal auf der Festplatte stehen, im schnellen Memory.
silicon.de: Bei Schreib- und Lesezugriffen?
Teixeira: Ja, reads and writes. Das erhöht die Leistung um das Dreifache, wie die Enterprise Strategy Group gemessen hat.
silicon.de: Jetzt sprechen wir schon über den zweiten Stolperstein bei der Virtualisierung, die Performanceeinbußen.
Teixeira: Wenn man virtualisiert, hat man viele virtuelle Maschinen auf einer Hardware. Das Problem dabei ist, dass man keine vorhersagbaren Leistungswerte mehr hat. Bei unterschiedlichen Arbeitslasten mit verschieden hohen Prioritäten benötigt man Werkzeuge, die die Leistung besser verwalten.
silicon.de: Dem Problem kann Datacore auch nicht entfliehen.
Teixeira: Stimmt. Hinzu kommt, dass das Load-Balancing, also die Verteilung der Arbeitslast, keine einfache Aufgabe ist. Es braucht viel Knowhow, vor allem bei Administratoren, die Storage nicht verstehen.
silicon.de: Wie hilft SANsymphony dabei?
Teixeira: Wir haben ‚best practices‘ eingebaut. Beim Losfahren kennt das System die verschiedenen Möglichkeiten, um die bestmögliche Leistung zu erzielen.
silicon.de: Das sind aber Standardregeln, oder?
Teixeira: Ja, das ist ein automatisiertes Support-Paket.
silicon.de: Unter Leistung versteht man bei Speichern natürlich auch die Aufnahmefähigkeit also die Kapazität, die durch Virtualisierung gesteigert werden soll.
Teixeira: Genau, die meisten Anwender nutzen nur etwa 30 Prozent der Speicherkapazität. Man kann aber 80 bis 90 Prozent Auslastung erreichen. Mit SANsymphony lassen sich aus herkömmlichen Festplattensystemen, die von Windows-Servern unterstützt werden, Speicherpools bilden. Für eine hohe Verfügbarkeit und gutes Load-Balancing raten wir dazu, die gesamte physische Kapazität gleichmäßig zwischen zwei redundanten Servern aufzuteilen. Der Administrator weist daraus virtuelle Festplatten zu, gemäß den Anforderungen.
silicon.de: Was ist mit Thin Provisioning, das ja allgemein zur besseren Kapazitätsnutzung verwendet wird?
Teixeira: Oh ja, nutzen wir natürlich auch zur effizienten Zuteilung und Belegung der virtuellen Disks.
silicon.de: Wenn Datacore erlaubt, weiterhin den alten Festplattenpool zu nutzen, wo bleibt die Datensicherheit?
Teixeira: Zunächst einmal sind wir redundant ausgelegt. Datacore verkauft zwei Lizenzen von SANsymphony, die auf zwei Locations laufen, synchron gespiegelt sind und separat gehalten werden.
silicon.de: Wie sind die verbunden?
Teixeira: Über iSCSI oder Fibre Channel.
silicon.de: Also Hochverfügbarkeit durch doppelte Auslegung?
Teixeira: Ja, aber an zwei Standorten. Wenn Sie eine teure Speicherbox erwerben, dann haben Sie das auch – aber halt nur intern, innerhalb des Subsystems. Das stellt dann einen single point of failure dar, aber zu einem gewaltigen Preis. Zwei Standorte schützen auch besser vor Fehlbedienungen des Personals – wer macht einen Fehler schon zweimal?
silicon.de: Wie sind die Daten geschützt, wenn trotzdem einmal etwas schief geht?
Teixeira: Wir nutzen eine echte Continous Data Protection ohne Snapshots.
silicon.de: Dabei fällt eine Menge Daten an, wenn Sie alle Transaktionen mitschreiben.
Teixeira: Ja, wir empfehlen deshalb, dafür alte Festplattensysteme zu nutzen und wir schreiben nicht wochenlang mit, sondern beschränken uns auf 48 Stunden. Innerhalb dieses Zeitraums werden die meisten Fehler bemerkt.
silicon.de: Oft ist das Rücksetzen schwierig…
Teixeira: … bei uns nicht. Sie geben einfach den Zeitpunkt an, also beispielsweise vier Stunden zurück, an dem das System neu ansetzen soll. Wir haben ja immer die Spiegeldaten. Unser Credo lautet: mirror and separate! Also spiegle die Daten und trenne die Standorte. Das hat auch Vorteile für Upgrades der Server, Refreshings von Software oder dem Austausch von Festplatten.
silicon.de: Die Administration von virtualisierten Rechenzentren erledigt meist kein Speicherspezialist. Wie kommt ein Fachfremder mit SANsymphony zurecht?
Teixeira: Es war uns ein großes Anliegen, alles möglichst intuitiv einsehbar zu gestalten ohne dass der Administrator Fachchinesisch beherrschen muss.