Alle reden von der digitalen Transformation – und meinen damit vor allem, dass Unternehmen ihre Geschäftsmodelle angesichts der allgegenwärtigen Digitalisierung auf den Prüfstand stellen müssen. Ein Aspekt, der in der Diskussion oft zu kurz kommt, ist die notwendige Transformation der Unternehmens-IT. Hardware und Software sollen Unternehmen jederzeit die Flexibilität und Leistung bereit stellen, die benötigt werden. Nicht weniger, aber auch nicht unbedingt mehr, weil dies die Kosten unnötig in die Höhe treiben würde.
Wie kann man sich das vorstellen? Noch vor wenigen Jahren ließen sich die Rechenzentren von Unternehmen am ehesten mit Tankern vergleichen: Stark, aber nicht unbedingt schnell, und einmal auf See kaum vom eingeschlagenen Kurs abzubringen. Um im Bild zu bleiben, wollen CIOs stattdessen heute lieber mehrere Schnellboote, die wendig, flexibel einsetzbar, leicht instand zu halten und notfalls auch zu ersetzen sind. Am besten sollen sich die Schnellboote auch noch fernsteuern lassen oder sogar autonom fortbewegen, also doch eher ein Schwarm maritimer Drohnen sein.
Was alle vernetzten Einheiten – zu Wasser, an Land und in der Luft – miteinander verbindet, das sind in der IT die Daten, die erzeugt, verarbeitet, gespeichert und analysiert werden, um daraus verwertbare Informationen zu destillieren. Daten sind der Treibstoff für die digitale Transformation und die IT sorgt dafür, dass diese in ausreichender Menge und bester Qualität zur Verfügung stehen.
Speicherorte spielen für Anwender bald keine Rolle mehr
Dass bei alledem der Bereich Storage eine zentrale Rolle spielt, leuchtet ein: Etablierte Speichertechnologien werden von Innovationen wie Objektspeicher und Flash ergänzt, das Zusammenspiel von bewährten und neuen Systemen ermöglicht gänzlich neue Szenarien. Der Speicherplatz auf dem eigenen Rechner, dezentral aufgestellte Speichersysteme, Storage im Firmen-Rechenzentrum, bei einem Outsourcing-Partner oder in irgendeiner Cloud können so orchestriert werden, dass die Frage nach einem physikalischen Speicherort bei Anwendern in naher Zukunft nur noch für ein Schulterzucken sorgen wird. Speicher? Ja sicher… Wichtig ist vor allem, dass Speicher zu jedem Zeitpunkt in ausreichender Menge und Qualität zur Verfügung steht.
Was die Speicherform und damit die Qualität des Speichers angeht, befinden wir uns noch in einer Umbruchphase: Hoch performanter Flash-Speicher gräbt der klassischen Festplatte immer mehr das Wasser ab, aber noch zwingt der (konstant sinkende) Preisunterschied bei den Technologien viele Unternehmen, eine gemischte Infrastruktur zu betreiben, in der Flash vor allem ressourcenhungrigen Applikationen vorbehalten ist, während beispielsweise Archive, auf die selten zugegriffen wird, mit langsam drehenden, günstigen Festplatten immer noch gut versorgt sind. Aber der Trend geht eindeutig Richtung Flash.
Die Lösung lautet: Dokumentenmanagement. Erfahren Sie im kostenlosen E-Book, wie ein Dokumentenmanagement-System (DMS) Ihnen helfen kann, Ihre Logistikprozesse zu verbessern – von der Artikelnummer bis zur Zustellung. Lesen Sie außerdem, wie Sie ein DMS auch im laufenden Betrieb zeit- und kostensparend implementieren können.
Der Speicherort wird also quasi egal und die Speicherform wird künftig Flash sein. Bleibt als drittes Thema die Frage der Zuordnung des Speichers. Damit der Storage im Unternehmen möglichst effektiv genutzt werden kann, müssen die vorhandenen Ressourcen dynamisch und abhängig vom Einsatzgebiet bereitgestellt werden. Diese so genannte Provisionierung und Verwaltung kann heute bei den meisten Anbietern über eine (mehr oder weniger komfortable und integrierte) Benutzeroberfläche gesteuert werden. Der Zeit- und Verwaltungsaufwand, um dies manuell durch einen Mitarbeiter erledigen zu lassen, wäre ziemlich hoch. Die Lösung ist hier eine weitgehende Automatisierung der gesamten Infrastruktur einschließlich des Storage: Anwendungen erhalten dann automatisch so viel Rechenleistung und Speicher, wie sie benötigen.
Automatisierung und Virtualisierung des Storage
Dabei kommt die Idee der automatischen Provisionierung ins Spiel: Wenn eine Applikation ressourcenmäßig an ihre Grenzen stößt, wird automatisch eine neue virtuelle Maschine erzeugt und der Anwendung zugeordnet. Falls nach einem „Peak” die komplette Leistung nicht mehr benötigt wird, kann die VM wieder heruntergefahren werden und die freien Rechenkapazitäten können anderweitig genutzt werden. Und falls die eigenen Ressourcen an ein Limit kommen, können die nahezu unbegrenzten Mittel der Public Cloud mit in das Spiel einbezogen werden. Im Prinzip werden Rechen- und Speicherkapazitäten damit zu einem immer in ausreichender Menge zur Verfügung stehenden Gut, etwa wie Strom oder warmes Wasser, das aus der Leitung fließt.
In diesem Webinar am 18. Oktober werden Ihnen die unterschiedlichen Wege, ein Software Defined Network aufzubauen, aus strategischer Sicht erklärt sowie die Vorteile der einzelnen Wege aufgezeigt. Außerdem erfahren Sie, welche Aspekte es bei der Auswahl von Technologien und Partnern zu beachten gilt und wie sich auf Grundlage eines SDN eine Vielzahl von Initiativen zur Digitalisierung schnell umsetzen lässt.
Der automatisierte Prozess hat zudem den Vorteil, dass er praktisch fehlerlos agiert und für die Mitarbeiter die Komplexität der Systeme und damit auch die Zahl der Fehlerquellen erheblich reduziert. Die Analysten von 451 Research fanden kürzlich in einer Befragung heraus, dass noch über die Hälfte der Unternehmen (55 Prozent) bei der Speicher-Provisionierung auf manuelle Methoden mit nur begrenzter Automatisierung setzen. Man muss sich nicht allzu weit aus dem Fenster lehnen, um zu prognostizieren, dass dieser Anteil sich in absehbarer Zeit deutlich weiter reduzieren wird.