Teixeira: … oder Cisco bei den Netzen. Unsere Software SANsymphony sitzt oberhalb der Hardware, sie macht den Speicher darunter anonym.
silicon.de: Was heißt das?
Teixeira: Eine Datacore-Infrastruktur kann die darunterliegende Hardware austauschbar machen, wir stellen keine Anforderungen an die Speicher. Im Gegenteil machen wir die vorhandenen Subsysteme sogar besser.
silicon.de: Wie soll das passieren?
Teixeira: Mit dem eingebauten ‚adaptive Caching‘. Damit halten wir die meisten Daten, die normal auf der Festplatte stehen, im schnellen Memory.
silicon.de: Bei Schreib- und Lesezugriffen?
Teixeira: Ja, reads and writes. Das erhöht die Leistung um das Dreifache, wie die Enterprise Strategy Group gemessen hat.
silicon.de: Jetzt sprechen wir schon über den zweiten Stolperstein bei der Virtualisierung, die Performanceeinbußen.
Teixeira: Wenn man virtualisiert, hat man viele virtuelle Maschinen auf einer Hardware. Das Problem dabei ist, dass man keine vorhersagbaren Leistungswerte mehr hat. Bei unterschiedlichen Arbeitslasten mit verschieden hohen Prioritäten benötigt man Werkzeuge, die die Leistung besser verwalten.
silicon.de: Dem Problem kann Datacore auch nicht entfliehen.
Teixeira: Stimmt. Hinzu kommt, dass das Load-Balancing, also die Verteilung der Arbeitslast, keine einfache Aufgabe ist. Es braucht viel Knowhow, vor allem bei Administratoren, die Storage nicht verstehen.
silicon.de: Wie hilft SANsymphony dabei?
Teixeira: Wir haben ‚best practices‘ eingebaut. Beim Losfahren kennt das System die verschiedenen Möglichkeiten, um die bestmögliche Leistung zu erzielen.
silicon.de: Das sind aber Standardregeln, oder?
Teixeira: Ja, das ist ein automatisiertes Support-Paket.
silicon.de: Unter Leistung versteht man bei Speichern natürlich auch die Aufnahmefähigkeit also die Kapazität, die durch Virtualisierung gesteigert werden soll.
Teixeira: Genau, die meisten Anwender nutzen nur etwa 30 Prozent der Speicherkapazität. Man kann aber 80 bis 90 Prozent Auslastung erreichen. Mit SANsymphony lassen sich aus herkömmlichen Festplattensystemen, die von Windows-Servern unterstützt werden, Speicherpools bilden. Für eine hohe Verfügbarkeit und gutes Load-Balancing raten wir dazu, die gesamte physische Kapazität gleichmäßig zwischen zwei redundanten Servern aufzuteilen. Der Administrator weist daraus virtuelle Festplatten zu, gemäß den Anforderungen.
silicon.de: Was ist mit Thin Provisioning, das ja allgemein zur besseren Kapazitätsnutzung verwendet wird?
Teixeira: Oh ja, nutzen wir natürlich auch zur effizienten Zuteilung und Belegung der virtuellen Disks.
silicon.de: Wenn Datacore erlaubt, weiterhin den alten Festplattenpool zu nutzen, wo bleibt die Datensicherheit?
Teixeira: Zunächst einmal sind wir redundant ausgelegt. Datacore verkauft zwei Lizenzen von SANsymphony, die auf zwei Locations laufen, synchron gespiegelt sind und separat gehalten werden.
silicon.de: Wie sind die verbunden?
Teixeira: Über iSCSI oder Fibre Channel.
silicon.de: Also Hochverfügbarkeit durch doppelte Auslegung?
Teixeira: Ja, aber an zwei Standorten. Wenn Sie eine teure Speicherbox erwerben, dann haben Sie das auch – aber halt nur intern, innerhalb des Subsystems. Das stellt dann einen single point of failure dar, aber zu einem gewaltigen Preis. Zwei Standorte schützen auch besser vor Fehlbedienungen des Personals – wer macht einen Fehler schon zweimal?
silicon.de: Wie sind die Daten geschützt, wenn trotzdem einmal etwas schief geht?
Teixeira: Wir nutzen eine echte Continous Data Protection ohne Snapshots.
silicon.de: Dabei fällt eine Menge Daten an, wenn Sie alle Transaktionen mitschreiben.
Teixeira: Ja, wir empfehlen deshalb, dafür alte Festplattensysteme zu nutzen und wir schreiben nicht wochenlang mit, sondern beschränken uns auf 48 Stunden. Innerhalb dieses Zeitraums werden die meisten Fehler bemerkt.
silicon.de: Oft ist das Rücksetzen schwierig…
Teixeira: … bei uns nicht. Sie geben einfach den Zeitpunkt an, also beispielsweise vier Stunden zurück, an dem das System neu ansetzen soll. Wir haben ja immer die Spiegeldaten. Unser Credo lautet: mirror and separate! Also spiegle die Daten und trenne die Standorte. Das hat auch Vorteile für Upgrades der Server, Refreshings von Software oder dem Austausch von Festplatten.
silicon.de: Die Administration von virtualisierten Rechenzentren erledigt meist kein Speicherspezialist. Wie kommt ein Fachfremder mit SANsymphony zurecht?
Teixeira: Es war uns ein großes Anliegen, alles möglichst intuitiv einsehbar zu gestalten ohne dass der Administrator Fachchinesisch beherrschen muss.
Page: 1 2
Cloud-Trends 2025: Zahlreiche neue Technologien erweitern die Grenzen von Cloud Computing.
Noah Labs wollen Kardiologie-Praxen und Krankenhäuser in Deutschland durch KI-gestütztes Telemonitoring von Patienten entlasten.
Neun von zehn deutschen Managern erwarten, dass der Einsatz von KI auf ihre Nachhaltigkeitsziele einzahlen…
Intergermania Transport automatisiert die Belegerfassung mit KI und profitiert von 95 Prozent Zeitersparnis.
Cyberattacken finden in allen Branchen statt, und Geschwindigkeit und Häufigkeit der Angriffe werden weiter zunehmen,…
Trends 2025 Application Security: Prompt Injection, Super Hacking Tool und Extended Berkeley Packet Filter.
View Comments
datacore
Viel Spaß mit verlorenen LUN´s, defekten Config´s und virtueller HA.
Das Problem von datacore ist die Basis, also der MS-Server der darunter ist.
Sanmelody ist nur ein Dienst, der auf dem M$-Server läuft. Kann nicht gut funzen. Storage-Virtualisierung läuft m.E. nur auf Linux-Basis gut. Also Falconstor oder ....
Lasst die Finger davon!!!
datacore
tolle Software, kann ich jedem weiterempfehlen. Den MS-Server für Datacore sollte man als Blackbox und Storageappliance sehen - ohne ihn ständig upzudaten läuft die Sache sehr gut. SanMelody ist ja ein Produkt welches ablaufen wird. Bis auf die etwas gewöhnungsbedürftige administration sehe ich keine Nachteile von SanMelody für ein mittelständisches Unternehmen welches ein hardwareunabhängiges, gespiegeles und performantes Storage nutzen will.