Die Familie soll ihre Heimat in der SAN-Landschaft haben und mit anderen Gemeindemitgliedern zusammenarbeiten – um im Bild zu bleiben. Was so harmonisch klingt hat aber auch seine Stolpersteine zu überwinden.
Als erstes stellt IBM den TotalStorage SAN-Volume-Controller (SVC) vor. Die Virtualisierungs-Engine klemmt sich als Schnittstelle zwischen lokales Netz (LAN) und Speichernetz (SAN) und kreiert sogenannte Storage-Pools. Das bedeutet, dass nicht jeweils spezieller Speicherplatz einem Server zugewiesen ist, der nur dort Daten der jeweiligen Anwendung ablegen kann, sondern es existiert ein einziger virtueller Speicherplatz. Der SVC kontrolliert, wo welche Ressourcen gebraucht werden und lokalisiert sie entsprechend. Ob die Speichersubsysteme Platten sind oder Bänder spielt keine Rolle.
Der Controller soll vor allem die Verwaltung der Speicherlandschaft vereinfachen und brach liegende Storage-Reserven besser nutzen. Denn häufig ist Speicherplatz einem Server zugewiesen, der aber im Moment weniger Platz braucht als ein anderer Server, der kurz vor der Überlastung steht. Mit dem SVC sollen diese Speicherinseln aufgelöst werden.
Problematisch ist aber, dass der gesamte Verkehr vom LAN über die Engine zum SAN laufen muss. Ein Engpass ist da vorprogrammiert. IBM verteidigt an dieser Stelle seine Lösung mit der Clustertechnologie, das heißt, der SVC basiert auf x-Series-Servern und davon können gleich mehrere den Verkehr abwickeln. “Außerdem verfügt jede Node über 4 GB Cache”, gab Thomas Frey, Vertriebsbeauftragter Software Storage, im Gespräch mit silicon.de zu bedenken.
Das Inband-Virtualisierungs-Tool hat sich vier weitere Kernpunkte auf die Fahne geschrieben: die Vermeidung von geplanten Ausfallzeiten für Wartung oder Backups, da alle Prozesse im laufenden Betrieb erledigt werden können, ein einheitliches und zentralisiertes Management der Storage-Ressourcen und damit eine optimierte Reservenauslastung sowie erweiterte Copy-Dienste zwischen verschiedenen Speicherkomponenten. Im ersten Release ab Juli wird der SVC die hauseigene FastT-Reihe unterstützen. Später soll die Lösung herstellerunabhängig arbeiten können mit Produkten von Hitachi Data System (HDS), aber auch EMC.
Ebenfalls präsentieren will IBM den SAN Integration Server. Die hauptsächlich für den Mittelstand entwickelte Integrationslösung kommt als eine Box auf den Markt, die die Virtualisierungstechnologie, Fibre-Channel- und RAID-Technik vereint. Der Server ist vor-, aber nicht festkonfiguriert und soll in der ersten Version, die für August dieses Jahres geplant ist, bis zu 100 TByte Storage-Kapazität auf maximal 42 Hosts verwalten können.
Und da ist da noch die oben angekündigte schwere Geburt. Seit langem angekündigt, aber immer noch nicht reif: der Storage Tank. Der Name klingt nach Kraft, aber das SAN-Filesystem bleibt ein Hungerhaken. Seine Aufgabe ist es, als spezialisiertes Dateiensystem für Speicherumgebungen zu agieren, das die Intelligenz von den Servern nimmt und sie ins Speichernetz übergibt. So sind die Metadaten der Files allen Applikationen zugänglich. Das soll vor allem das regelbasierte Storage- und Server Management ermöglichen. Aber genau bei diesem Punkt hinkt die Lösung.
Policy-basiert ist ein feiner Ansatz, Daten dort zu speichern, wo es ihrem Status entspricht. Das heißt, wichtige Dokumente lagern auf hochverfügbaren Speichern, weniger wichtige und selten benutzte Daten kommen beispielsweise auf die Bänder. Es ist aber noch nicht klar, wer wie die Regeln aufstellt, ob der Anwender jeweils selbst definieren muss – bei jedem Dokument – welchen Status es hat. Oder, was wahrscheinlich ist, Serviceklassen nach möglicherweise bestimmten Attributen im Dateinamen vom Administrator definiert werden, A für kritische Daten, B für weniger wichtig und so weiter. “Das ist zugegebenermaßen noch nicht zu Ende gedacht”, gibt Frey zu.
Jetzt ist aber erst einmal der SVC dran. Preise für die Engine werden erst im Juli bekannt gegeben. “Der SVC ist der erste Schritt in Richtung on-Demand-Lösung für den gesamten Storage-Bereich“, erklärte denn auch Richard Hermann von IBM SSG Networking Storage Sales gegenüber silicon.de. Das ist das erklärte Ziel bei Big Blue. Die Roadmap steht bis 2003+. Das Plus ist dann on-Demand.
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…