Categories: M2MNetzwerke

Mit der richtigen Architektur ins Internet der Dinge

Aus Milliarden an Daten verwertbare Informationen zu gewinnen, gehört zu den primären Werttreibern des IoT. Das Marktforschungsinstitut Gartner prognostiziert, dass 21 Milliarden Dinge bis 2020 mit dem Internet vernetzt sein werden (Gartner Symposium/ITxpo, Nov. 2015). Diese zunehmende Konnektivität von Produkten, Geräten und Maschinen stellt Hochleistungsanforderungen an die bisherige IT-Infrastruktur und Unternehmen damit vor großen Herausforderungen. Und dank der relativ kostengünstigen Integration von Sensoren in allerlei Geräten, etwa zur Messung von Temperatur, Bewegung, Geräuschen oder des Standorts, ist ein Ende noch lange nicht in Sicht.

Aber wie lassen sich diese riesigen Datenmengen sinnvoll in der Cloud erfassen, verarbeiten, speichern und analysieren und vor allem: wie können Cloud-Server diesen massiven Input bewältigen? Die Antwort ist einfach: Indem sie es nicht alleine bewältigen, sondern ein großer Teil dieser Prozesse “an den Rand der Cloud” verlagert wird, dort wo sich Gerät und Anwender treffen. Edge Computing nennt sich dieses alternative Architekturkonzept.

Stephan Ellenrieder, der Autor dieses Gastbeitrags für silicon.de, ist Senior Vice President Zentral- und Osteuropa sowie Geschäftsführer Deutschland bei PTC. (Bild: PTC)

Cloud-Konzepte sind weiterhin gefragt

Hatten Unternehmen lange Zeit Bedenken bei der Implementierung eigener Cloud-Lösungen bezüglich Sicherheit und Anwendungsrahmen, wird die Cloud spätestens mit dem Einzug von IoT-Konzepten ins Unternehmen unumgänglich. Wenn schnelle Bereitstellung der Anwendungen, hohe Agilität und Skalierbarkeit sowie vorausschaubare und planbare Betriebskosten gefragt sind, ist eine Cloud-Lösung der richtige Ansatz.

Die dezentrale Architektur von Cloud Computing ermöglicht den Fernzugriff von überall auf die abgelegten Daten und vereinfacht unter anderem die Zusammenarbeit von weit entfernten Teams an gemeinsamen Projekten. Was aber passiert, wenn Trilliarden an Endgeräten riesige Datenmengen senden, die in kritischen Fällen in Echtzeit ausgewertet werden müssen?

Intelligenz bewegt sich “an den Rand”

“Edge Computing” oder auch “Fog Computing” ist ein Ansatz dafür. Die Daten werden hierbei nicht über das Internet an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst und damit am Entstehungsort der Daten verarbeitet, etwa im vernetzten Auto oder in einer Überwachungskamera. Edge Computing unterstützt somit Hochleistungsinteraktionen in Echtzeit, da sie weder durch Batchverarbeitung noch netzwerkbedingte Latenzzeiten ausgebremst werden.

Die zunehmende Konnektivität von Produkten, Geräten und Maschinen stellt Hochleistungsanforderungen an die bisherige IT-Infrastruktur und Unternehmen damit vor großen Herausforderungen (Bild: PTC)

Die Geräte am Rande der Cloud kommunizieren miteinander und treffen unabhängig von ihr Entscheidungen. Möglich wird dadurch nicht nur die Sammlung, Verarbeitung und Analyse von Daten aus der “Außenwelt”, sondern auch die umgekehrte Richtung. Das neueste Update für die Videoüberwachungskameras eines großen Gebäudekomplexes muss somit nicht mehr vom zentralen Server an jedes einzelne Gerät im Netzwerk geschickt werden, sondern nur noch an eine für Edge Computing ausgerüstete Kamera, über die daraufhin die Verteilung an alle anderen Geräte läuft.

Zugegeben, dieser Ansatz ist nicht gänzlich neu, die Umsetzung ist jedoch erst heutzutage möglich. Die Gründe sind einfach: Die Software ist mittlerweile so weit entwickelt, dass sie nicht mehr zwangsweise auf Hochleistungshardware laufen muss. Zudem ebnen die Geräte selbst den Weg für diese Form der Datenverarbeitung, indem sie Speicher, Rechenleistung und Netzwerkverbindung in sich vereinen können – all diese Komponenten, die früher nur im zentralen Rechenzentrum zu finden waren.

Mussten die Daten vorher zunächst über das Netzwerk an ein solches Rechenzentrum geschickt und dort gespeichert werden, um sie daraufhin analysieren und weiterverarbeiten zu können, wird es für die Einleitung eines Bremsvorgangs in den selbstfahrenden Autos der Zukunft schon zu spät sein. Trotz rechtzeitiger Sensorwarnung droht der Auffahrunfall. Der gesamte Prozess kann am Entstehungsort selbst, in diesem Fall im vernetzten Auto, ablaufen. Schließlich können Rechenleistung, Speicherkapazität und Anwendungen mittlerweile von einer kleinen Computing-Box in der Größe eines Laptops geliefert werden, die am Rand des Netzwerks platziert wird.

Gründe für Edge Computing

Die Geschwindigkeit der Datentransfers aufgrund teils hoher Latenzzeiten im Netzwerk wird bald zum Problem in der Cloud. Heutzutage mag das für die meisten IT- und Kommunikationsprozesse noch funktionieren. Mit der drastischen Zunahme an intelligenten, vernetzten Geräten wird dies zukünftig jedoch zu einer echten Herausforderung.

Bereits jetzt setzen Unternehmen in vielen Bereichen auf Echtzeit-Analysen von Daten, um kurzfristig Entscheidungen treffen zu können und dadurch Wettbewerbsvorteile zu erzielen, sei es in der Produktion, während des Produkteinsatzes oder für Marketingzwecke, da diese Daten kurz nach ihrer Erhebung am wertvollsten sind. Spätestens mit der zunehmenden Automatisierung der Produktion oder selbstfahrenden Autos, Bahnen oder Bussen wird die direkte Verarbeitung sogar essenziell, um frühzeitig auf drohende Maschinenausfälle, Unfälle und Schäden reagieren zu können.

Nicht immer sind alle Daten gleich wichtig und gleich zeitkritisch. Die Wahl zwischen einer Cloud- oder Edge-Verarbeitung wird am besten von der Anwendung selber getroffen. (Bild: PTC)

Edge Computing bietet hier die Möglichkeit, die Daten bereits zu verarbeiten und zu analysieren, bevor sie zentral gesammelt werden. So können im Anschluss etwa nur bestimmte Datensätze, sofern sinnvoll oder durch Richtlinien für Datenverarbeitung und -schutz vorgegeben, an das Rechenzentrum übermittelt und dort abgelegt werden.

Bei datenintensiven und zeitkritischen Anwendungen empfiehlt sich eine Vorverarbeitung vor Ort auch, um mögliche Sicherheitsrisiken zu vermeiden. Daten werden beim Edge Computing eben nicht in weit entfernten Rechenzentren oder im Ausland verarbeitet, wo womöglich andere Vorschriften im Umgang mit Daten herrschen. Darüber hinaus sind die Geräte selbst sichererer und verringern die Zahl möglicher Zugangspunkte für mögliche Angriffe von außen.

Ein weiterer wesentlicher Grund für die Verlagerung an den Rand des Netzwerks sind die hohen Kosten für den Transport riesiger Datenvolumen zum Rechenzentrum oder zur Cloud. Ein einfaches Beispiel illustriert diese Datenmengen: Ein intelligenter Stromzähler, der alle 15 Minuten misst, generiert 400 Megabyte im Jahr. Eine mittelgroße Gemeinde mit 500.000 Kunden kommt damit jährlich auf 200 Terabyte an Daten – eine gewaltige Menge, die es zu sammeln, verarbeiten und speichern gilt (MaRS; The Evolving Digital Utility: The convergence of energy and IT, 2014, PDF).

Dabei sind nicht immer alle Daten gleich wichtig und gleich zeitkritisch. Die Wahl zwischen einer Cloud- oder Edge-Verarbeitung wird von der Anwendung selber getroffen und hängt davon ab, welche Daten dringend mitgeteilt werden müssen und welche nicht.

Datenselektion in Zukunft wichtig, aber wie?

Aber welche Daten werden schnell benötigt und welche nicht? In Unternehmen beeinflussen drei Akteure die Entscheidung über die Datenverarbeitung am Rande des Netzwerks oder in der Cloud: der Unternehmens- und damit Dateninhaber (Produktionsleiter, CEO, CFO), ein technischer Entscheider, der die Anforderungen an die IT-Infrastruktur im Blick hat und zu guter Letzt ein Sicherheitsbeauftragter zur Einschätzung, wie sensibel die Daten sind und wie hoch ihr benötigter Schutz sowie wie sich diese Daten evaluieren lassen.

Im Zuge der Datenausdünnung werden unnötige Daten entfernt, sodass nur die wirklich relevanten zum Vorschein kommen. Bei dem täglich steigenden Volumen produzierter Daten wird dieser Selektionsschritt zukünftig unumgänglich. Ein autonomes Auto zum Beispiel erzeugt jährlich Petabyte an Daten, etwa über den Gegenverkehr oder zu Straßenverhältnissen, die nicht zwangsläufig gebraucht und deshalb langfristig gespeichert werden müssen. Spätestens die zunehmende Vernetzung von intelligenten Produkten im Internet der Dinge wird zeigen, dass nicht die Masse der Daten entscheidend ist, sondern der wertvolle und nützliche Inhalt der Daten.

Technische Anforderungen des Edge Computing

Ergänzend zu den strategischen Überlegungen in Bezug auf Datenauswahl und -verarbeitung bedarf es für Edge Computing auch zusätzlicher Hardware- und Softwareausstattung. Nehmen wir beispielsweise die Gateways, die in der Produktion oder im Feld für die Steuerung oder Überwachung von Maschinen, Anlagen oder Geräten eingesetzt werden. Bisher waren diese lediglich für den Transport von Informationen in und aus dem Netzwerk zuständig – eine Verarbeitung der Daten war damit jedoch nicht vorgesehen und auch nicht möglich.

Konventionelle Gateways reichen nicht länger aus, wenn Rechenleistung und analytische Verarbeitung am Rande des Netzwerks vonstatten gehen sollen – oder aus Sicherheits- und Geschwindigkeitsgründen – dort vonstatten gehen müssen (Bild: PTC).

Solch ein einfacher Gateway reicht aber nicht länger aus, wenn die Rechenleistung und analytische Verarbeitung am Rande des Netzwerks passieren soll. Die bestehende Hardware muss quasi um Edge-Computing-Komponenten erweitert werden. Unternehmen wie HPE und Dell passen daher bereits ihr Hardware-Angebot an die Anforderungen des Edge Computing an. Auch PTC wird mit neuen Lösungen im Rahmen bereits bestehenden Kooperationen mit diesen Hardwareanbietern zukünftig hybride Modelle unterstützen, bei denen ein Teil der Datenverarbeitung auf einem Cloud-Server, der andere Teil auf den sich in oder am Rande der Cloud befindlichen Endgeräten selbst stattfindet.

Dell beispielsweise bietet mit seiner Produktserie Edge Gateway 5000 einen Router als Schnittstelle zwischen den Sensoren und der entfernten Steuerzentrale an, auf dem Analysewerkzeuge laufen sollen, um die eingehenden IoT-Datenmengen nicht alle übertragen zu müssen. Die Gateways sollen Daten empfangen, zusammenführen, analysieren und weiterleiten, um die benötigte Bandbreite zu reduzieren und so nur aussagekräftige Informationen nach außen zu einem zentralen Verarbeitungssystem übertragen.

Mehr zum Thema

IoT: Eine neue Standard-Welt entsteht

Im Bereich IoT gibt es zahlreiche Initiativen und Konsortien, bislang laufen diese Bestrebungen jedoch überwiegend parallel nebeneinander her. Doch damit dies alles überhaupt funktionieren kann, braucht man neben neuen Produkten auch neue Standards – insbesondere für die Kommunikation der Geräte untereinander und für die Sicherheit. silicon.de gibt einen Überblick.

Bevor die Daten in diesen Gateway strömen, werden sie über die Kepware KEPServerEX Connectivity-Plattform von PTC gesammelt und bereitgestellt, die unter anderem einen leistungsstarken Server für den Edge-Computing-Einsatz bei Steuerungs- und Überwachungssystemen bietet und für die Einbindung einer Vielzahl an Maschinen und Geräten gewappnet ist.

Neue Werkzeuge für die Echtzeit-Datenanalyse gebraucht

Ergänzend zur entsprechenden Erweiterung der Hardwareinfrastruktur kommen Unternehmen auch um neue Softwarewerkzeuge für die Datenanalyse kaum herum. Natürlich könnten traditionelle Business-Intelligence-Software oder Reporting-Tools dafür in Betracht gezogen werden. Diese arbeiten auf Basis einer Batchverarbeitung und genügen so zwar für die grundsätzliche Datenanalyse gemäß den heutigen Anforderungen. Keines dieser Instrumente aber wurde jemals zur Analyse von Datenströmen “vom Rande” der Cloud entwickelt.

Um maximalen Nutzen aus den erhobenen Sensordaten zu ziehen, müssen diese nicht erst im Nachgang analysiert, sondern ständig überwacht und in maschinelle Lernverfahren übertragen werden, um in Echtzeit Anomalien zu erkennen und Fehler vorhersagen zu können. Mit dem ThingWatcher aus ThingWorx Analytics etwa werden Datenströme in Echtzeit analysiert, ohne sie speichern zu müssen. Die Anwender werden bei Anomalien und Fehlern sofort benachrichtigt.

Dies ist nur möglich, da der ThingWatcher den Datenstrom 30.000 Mal pro Sekunde pro Sensor rund um die Uhr abliest und somit den Normalzustand des Geräts oder des Sensors mit der Zeit automatisch erlernt. Weichen die Werte von diesem Normalzustand oder einem spezifischen Muster einmal ab, wird der Nutzer umgehend informiert – und nicht erst, wenn der Schaden entstanden ist.

Ausblick

Edge Computing wird weiter an Fahrt gewinnen und eine integrale Rolle bei IoT-Anwendungen spielen, wo Latenzzeiten und der hohe Bandbreitenbedarf problematisch sind. Sicherlich wird Edge Computing die Cloud nicht verdrängen, sondern eine Komplementärlösung in zukünftigen IoT-Konzepten sein. Die Anwendung von Edge Computing steckt heute noch in den Kinderschuhen, hat aber langfristig das Potenzial, sich durchzusetzen, da wichtige Aspekte wie Verarbeitungsgeschwindigkeit und Sicherheit dafür sprechen. Die Technologie steht schon heute bereit, ist ausgereift und bezahlbar.

Das letzte Hindernis sind aber die Anwender selbst: Sie müssen innerhalb ihres Unternehmens evaluieren, was mit der Implementierung eines Edge-Konzeptes erreicht werden soll und wie sich Mehrwerte generieren lassen. Da viele Unternehmen in der Praxis noch über die passende Cloud-Strategie nachdenken: Warum nicht gleich einen Schritt gehen und über ein hybrides Szenario nachdenken, das über kurz oder lang sowieso notwendig wird.

Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

1 Tag ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago