Mark Re von Seagate blick in die Zukunft der Daten. IoT und andere Themen werden zu einem dramatischen Anstieg der Datenmenge führen.
Aktuelle Technologien sind fraglos sehr beeindruckend – vor allem deshalb, weil sie immer lern- und anpassungsfähiger wird. Das zeigt sich vor allem auch beim Internet of Things (IoT), einem enormen Netzwerk miteinander verbundener Objekte, das mithilfe von Echtzeitdaten unser Leben signifikant beeinflusst und verändert.
Beispiel autonom fahrende Autos: Erscheint ein Schlagloch auf der Straße oder eine Umleitung, wird das von den Systemen des Wagens registriert. Diese informieren dann nicht nur den Fahrer, sondern – via Cloud – auch andere Verkehrsteilnehmer bzw. selbstfahrende Vehikel. Genau das passiert, wenn maschinelles Lernen auf das IoT trifft – alles unterfüttert von Echtzeit-Informationen.
Die deutschen Fahrzeughersteller und die Zulieferindustrie haben die Zeichen der Zeit erkannt. So hat beispielsweise Audi gemeinsam mit Huawei und Vodafone ein System entwickelt, das die Fahrzeuge unmittelbar miteinander kommunizieren lässt und damit die Sicherheit auf der Straße entscheidend erhöht. Bosch und Nvidia haben ihrerseits einen Bordcomputer mit Künstlicher Intelligenz kreiert, der das Gehirn des autonomen Fahrzeugs bilden soll.
IoT heißt auch: Big Data in einer neuen Qualität
Daten sind der Treibstoff des IoT. Sie sind die Basis für eine neue Generation leistungsfähiger, vernetzter Geräte, die unser Leben nachhaltig beeinflussen. Autonomes Fahren ist hier nur ein Aspekt unter vielen. Die Freie und Hansestadt Hamburg ist ein echter Pionier der Digitalisierung. Die Straßenbeleuchtung wird heller, wenn sich ein Radfahrer nähert, Ampeln erkennen eigenständig, wenn ein Bus heranfährt, und verlängern die Grünphase automatisch bei LKWs. Das ambitionierteste Hamburger Projekt aber ist smartPORT – eine intelligente Infrastruktur für Europas drittgrößten Hafen. Mit Elementen des IoT, mit Big Data, der Cloud und mobilen Endgeräten werden Informationen in Echtzeit an alle gesendet, für die sie Relevanz besitzen. Das Ergebnis ist ein optimierter Waren- und Verkehrsfluss im gesamten Hafenbereich.
Ohne Computer funktioniert heute kaum noch ein Gerät oder eine Infrastruktur. Entsprechend wichtiger werden die Daten, die hier generiert werden. Wie wichtig genau? Mit dem IoT geradezu unermesslich viel wichtiger.
Report: State of Digital Transformation EMEA 2019
Zu den größten Hürden der digitalen Transformation zählen der mobile Zugriff auf Unternehmensdaten und Anwendungen, die Nutzung unsicherer Netzwerke und nicht verwalteter Geräte. Das geht aus dem Report „State of Digital Transformation EMEA 2019“ von Zscaler hervor. Jetzt den vollständigen Report herunterladen!
Tatsächlich beläuft sich die Gesamtmenge aller Daten im vergangenen Jahr auf schätzungsweise 16,1 Zettabytes. Im Jahr 2025, so glauben das IDC und Seagate, wird diese Menge die Marke von 163 Zettabytes erreichen. Der Großteil davon entfällt auf das IoT.
Zum Vergleich: Die Library of Congress ist die weltgrößte Bibliothek, sämtliche Bücher würden eine Reihe von 838 Meilen ergeben. Hier findet sich nahezu jedes Buch, das in den Vereinigten Staaten gedruckt wurde: eine Ansammlung von nicht weniger als 208 Terabytes an Daten (Lyman & Varian, 2000). 163 Zettabytes entsprechen also rechnerisch 784 Millionen Libraries of Congress – Jahr für Jahr. Das ist es, was heute mit “Big” Data gemeint ist.
Datentransfer für kritische Anwendungen
In dem Maß, in dem sich das IoT weiterentwickelt und damit auch das Vertrauen in die Technologie wächst, in dem Maß werden seine Möglichkeiten auch für sensible Bereiche genutzt – wie etwa das autonome Fahren.
IDC und Seagate schätzen, dass 2025 etwa 20 Prozent sämtlicher Informationen kritisch für die Kontinuität alltagsrelevanter Prozesse sein werden. Ein Zehntel dieser Menge ist sogar hyperkritisch oder hat Auswirkungen auf medizinische Anwendungen. Viele solcher Daten werden vom IoT generiert – und der Anstieg ist dramatisch.
Daraus folgt die Notwendigkeit, kritische und hyperkritische Informationen zu priorisieren. Das wiederum verlangt nach einer ganz neuen Art und Weise, wie Systeme Daten erfassen, verwalten, speichern, sichern und verarbeiten. So müssen Analytics künftig stets in Echtzeit stattfinden. Je besser die Analysemethoden, desto besser die Position des Anwenders im Wettbewerb.
So lassen sich Risiken bei der Planung eines SAP S/4HANA-Projektes vermeiden
Ziel dieses Ratgebers ist es, SAP-Nutzern, die sich mit SAP S/4HANA auseinandersetzen, Denkanstöße zu liefern, wie sie Projektrisiken bei der Planung Ihres SAP S/4HANA-Projektes vermeiden können.
Der enorme Anstieg an Echtzeitdaten bedingt vor allem auch einen Wandel beim Digital Storage. Ein Teil der Informationen muss möglichst nah am Verwendungsort zwischengespeichert werden, während der Großteil in geschützten Cloud-Rechenzentren lagert. Sicher ist in jedem Fall auch, dass die Anforderungen an Investition und Innovation in punkto High-Capacity Storage steigen und sich auf hohem Niveau bewegen werden.
Auf die Daten kommt es an
Der Management-Guru Peter Drucker hat mal gesagt: “Wenn du es nicht messen oder beziffern kannst, kannst du es auch nicht verbessern.” Unsere Festplatten sind heute voll von Filmen, Musik und anderen Entertainment-Formaten. Aber das ändert sich jetzt: Fast alle Storage-Orte beinhalten zunehmend Informationen, die unmittelbare Relevanz für das Funktionieren des Alltagslebens haben, privat und beruflich. So wie immer mehr Daten geradezu lebenswichtig anstelle von “nur” lebensbereichernd sind, so ändern sich auch die Formen des Umgangs mit ihnen. Diese Entwicklung kann nur auf Basis eines schnellen und radikalen Technologiefortschritts stattfinden. Big Data und Metadaten (Daten über Daten) drängen in alle Lebensbereiche – mit den entsprechenden Konsequenzen. Ich finde es unglaublich spannend, dass derzeit offenbar nur unsere Phantasie hier potenzielle Grenzen setzt.