Herr Schwab, immer mehr produzierende Unternehmen wollen mit IoT-Daten Unternehmensprozesse, Produkte und Services optimieren. Dabei entstehen unglaubliche Datenmengen. Was machen die Unternehmen damit?
Kai Schwab: Sie sprechen einen Punkt an, über den wenig gesprochen wird. Es entstehen Zettabytes von Daten, die oft nicht so zielführend genutzt werden, wie es möglich wäre. Dies liegt unter anderem daran, dass viele Unternehmen in Punkto IoT-Reifegrad noch Entwicklungen vor sich haben. Das Management dieser Unternehmen möchte an neuen Innovationen wie IoT teilhaben. Dies hat zur Folge, dass Unternehmen in IoT-Technologie investieren, ohne werthaltige Anwendungsfälle, geschweige denn ein Business Cases identifiziert und kalkuliert zu haben. Ich habe mit einer großen Zahl von Industrieunternehmen in Deutschland, Österreich und der Schweiz zu tun und alle haben damit ein echtes Thema.
Was machen die Unternehmen denn mit den Daten?
Unternehmen, die eine reine Cloud-Strategie verfolgen, bringen die Daten meist ungefiltert eins zu eins in die Cloud. Dort werden sie mehr oder weniger aufbereitet. Oft liegen sie aber einfach nur in der Cloud ohne Nutzen zu stiften. Bewusst wird den Cloud-Nutzern die Problematik erst dann so richtig, wenn der Cloud-Provider jeden Monat eine hohe Summe für das Speichern der Daten in Rechnung stellt. Erst dann suchen diese Unternehmen nach Lösungen, mit diesen Daten Mehrwert zu schaffen oder diese zu reduzieren.
Was wäre die Alternative?
Wer erst in der Cloud IoT-Daten analysiert, zahlt bei den Cloud-Providern zusätzlich pro Kilobyte oder ausgeführter Transaktion Geld. Müssen denn unbedingt alle Daten ungefiltert in die Cloud? Oder ist es nicht sinnvoller, Daten vorzuverarbeiten und dann die analysierten, werthaltigen und nutzenstiftenden Daten in die Cloud zu bringen? Das spart Geld sowohl für den Transport, die Speicherung als auch für die Weiterverarbeitung von Daten in der Cloud.
Ich habe den Eindruck, dass man sich erst überlegt, wie man an IoT-Daten kommt und erst danach gefragt wird, was man mit diesen Daten macht?
Dies ist nach meiner Meinung der falsche Ansatz. Bei Data Analytics und KI beispielsweise trainiere ich ein Modell, das ein ganz spezifisches Problem lösen soll. Dafür gilt es erst einmal zu wissen, um welches Problem es sich handelt und nicht umgekehrt. Daten in die KI zu geben, um danach zu hoffen, dass diese mir gleichzeitig die Probleme und deren Lösung aufzeigen, macht keinen Sinn. Zum Beispiel hat einer unserer Kunden in der Stahlindustrie mit unserer Softwarelösung ein Anwendungsfall zur Erhöhung der Produktqualität für Gurtstraffer umgesetzt. Diese Straffer sorgen dafür, dass bei einem Unfall der Gurt automatisch anzieht. Damit der Gurtstraffer 100 Prozent funktioniert, kommt es auf jeden zehntel Millimeter an.
Dieser Kunde von Crosser hat sich für diesen Anwendungsfall zunächst angeschaut, welche Parameter für die Qualität eines Gurtstraffers entscheidend sind. Dies waren schließlich 20 Datenpunkte. Heute gibt die Lösung in der Produktion unseres Kunden in Echtzeit Empfehlungen, welche Parameter wie geändert werden sollten. Früher haben die Mitarbeiter in der Produktion mit ihrer Erfahrung selbst entschieden, welche Parameter geändert werden sollten. Dies hat in 90 Prozent der Fälle zu einer Verschlechterung der Qualität des Produktes geführt.
Wenn Daten aus vielen Standorten in die Cloud müssen, um sie dort zu verarbeiten. Dann geht es doch auch um das Thema Echtzeit?
Latenzzeit ist nicht für alle Prozesse relevant. Aber es gibt Anwendungsfälle, für die die IoT-Daten schnell analysiert werden müssen, um Prozesse ad-hoc oder zumindest zeitnah anpassen zu können. Für diese Zwecke bleibt nicht die Zeit, Daten an der Maschine zu erfassen, in die Cloud zu senden, dort etwas damit zu tun und dann wieder an die Maschine zurückzugeben. Dann sollten Daten an der Edge – am Ort der Datenentstehung – verarbeitet werden. Oft reichen die Bandbreiten auch nicht aus, um solche echtzeitnahen Analysen durchzuführen. Zum Beispiel bei Maschinen, die irgendwo im Feld eingesetzt werden. Es geht also darum, Daten am Ort der Entstehung – der Edge – direkt zu verarbeiten.
Welche Rolle spielt dabei die Software-Lösungen von Crosser?
Wir entwickeln Software, mit der die Daten am Ort der Datenentstehung – der Edge -, also an der Maschine oder der Produktionsstraße genutzt werden können. Mit unseren Lösungen können Unternehmen an der Edge Daten lesen, verarbeiten, harmonisieren, anreichern, bereinigen, also Prozesse direkt an der Edge durchführen. Das nenne wir Edge Analytics. Die Daten bleiben zur Auswertung an der Edge oder können auch parallel in die IT- Systeme wie ERP, Datenbanken oder CRM-Systeme etc. oder an eine Cloud übergeben werden.
Was genau braucht ein Unternehmen dafür?
Zwei Komponenten von Crosser. Die eine Komponente ist die sogenannte Crosser Edge Node. Die zweite ist die Crosser Cloud. Die Crosser Edge Node ist ein Stück Software, welches typischerweise in einer Container-Umgebung oder als Windows Service bereitgestellt wird. Die Crosser Cloud ist keine Cloud, wie man diese von Azure, Amazon oder Google kennt, sondern ein Werkzeug, mit dem der Anwender die Prozesse in der Edge Node konfiguriert, testet, verteilt und überwacht. Also eine reine Orchestrierung dessen, was an der Edge Node passiert.
KI oder Machine Learning ist Teil ihrer Software oder wird die quasi beim Kunden entwickelt?
KI-Algorithmen gibt es schon seit über 60 Jahren als Open Source. Dies bedeutet, dass diese jedem zur Verfügung stehen. Die Beschaffung der Algorithmen ist also nicht das vorrangige Problem bei der KI. Das Problem bei der KI ist erstens, die richtigen Daten in der richtigen Granularität und Qualität zu haben, damit ich die Open Source-Algorithmen trainieren kann. Die zweite große Fragestellung ist: Wo führe ich die trainierten KI-Modelle aus? In der Cloud oder lokal bei mir an der Edge oder in der IT? Die Vorbereitung von Daten und die Orchestrierung der KI-Modelle ist ein Schwerpunkt von Crosser. Dies wird durch unsere Low Code-Philosophie umgesetzt. Die Daten werden also in der richtigen Granularität und Qualität vorbereitet. Wenn auf dieser Basis der Data Scientist ein KI-Modell entwickelt hat, wird dieses mit Hilfe von Crosser an die Edge verteilt.
Können Sie noch ein weiteres Anwendungsbeispiel nennen?
Das österreichische Unternehmen Rubble Master baut Brecheranlagen, in denen große Steine zu kleinen Steinen und Sand zerkleinert werden. Diese Zerkleinerungsmaschinen werden während des Verarbeitungsvorgangs stark beansprucht. Die Frage stellt sich, wie sich der Verschleiß der Maschine reduzieren bzw. die Qualität der Maschinen verbessern lässt. Dafür braucht das Unternehmen Daten über die Nutzung der Maschine. Rubble Master kam zu uns mit drei Fragestellungen. Das innovative Unternehmen wollte erstens sein Geschäftsmodell umstellen und nicht mehr nur Maschinen, sondern die Maschine als Service verkaufen. Zweitens arbeitet Rubble Master mit Vertriebspartnern zusammen und sie wissen daher oftmals nicht, wie zufrieden die Endkunden wirklich mit den Maschinen sind und wie diese die Maschinen nutzen. Es fehlt die direkte Verbindung zum Endkunden. Zusätzlich wünschte sich Rubble Master ihren Service- und Vertriebspartnern mehr Informationen bereitzustellen, damit diese wiederum den Endkunden besser mit Services und Ersatzteilen versorgen können. Das Ziel war, die Fragestellungen mithilfe von Daten von den Maschinen lösen zu können. Diese Herausforderungen konnte Rubble Master mit unserer Lösung meistern.
Klingt nach Programmierung, wofür den Fachkräften an den Maschinen aber meist das Know-how fehlt.
In der Tat fehlen aktuell Unternehmen sehr viele IT-Ressourcen. Auf der einen Seite sind diese nur teuer einzukaufen bzw. existieren nicht am Markt. Unternehmen brauchen also Werkzeuge, mit denen sie möglichst einfach Logiken implementieren können. Das passiert auf Low-code bzw. No-code-Basis. Hierfür stellen wir bei Crosser eine Modul-Bibliothek bereit. Die Module werden mit Hilfe von grafischen Symbolen repräsentiert. Diese lassen sich aus unserer Bibliothek per Drag & Drop zu Prozessen zusammenbauen. Dies geht weitgehend intuitiv. Wer will, kann dann noch statische Daten aus dem ERP, CRM oder aus einer Datenbank in den Prozess integrieren, um Kontextinformationen anzureichern. Dies könnte beispielsweise ein Wartungsauftrag zu einer Maschine sein. Und das ist genau die Idee, mithilfe von Modulen sehr einfach und sehr schnell ein Prozess zu erstellen. Das Knowhow wie solche Prozesse mit Crosser konfiguriert werden kann sehr schnell erworben werden.
Kai Schwab
ist bei Crosser verantwortlich für die Dach-Region. Der Wirtschaftsinformatiker (TU Darmstadt) arbeitet seit fast 30 Jahre in der IT-Branche, unter anderem rund um Themen wie ERP, CRM, Produktion, Logistik und Compliance.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…
Cloud-Trends 2025: Zahlreiche neue Technologien erweitern die Grenzen von Cloud Computing.
Noah Labs wollen Kardiologie-Praxen und Krankenhäuser in Deutschland durch KI-gestütztes Telemonitoring von Patienten entlasten.
Neun von zehn deutschen Managern erwarten, dass der Einsatz von KI auf ihre Nachhaltigkeitsziele einzahlen…
Intergermania Transport automatisiert die Belegerfassung mit KI und profitiert von 95 Prozent Zeitersparnis.
Cyberattacken finden in allen Branchen statt, und Geschwindigkeit und Häufigkeit der Angriffe werden weiter zunehmen,…