Categories: ForschungInnovation

“Darmstadt ist das Greenwich des Internets”

Die Darstellung von Zeit und das Verständnis von Zeit innerhalb der Datennetze ist grundlegend für den Erfolg von Handel, GPS-Navigation und Produktion. Auch Künstliche Intelligenz kann nur funktionieren, wenn die Systeme Zeitdaten erhalten, die so aggregiert sind, dass sie ausgewertet werden können. Ingolf Wittmann, CTO und Leader of HPC Europe bei IBM, ließ sich mit silicon.de auf ein kurzes Gespräch über die Zeit ein.

silicon.de: Das Jahr-2000-Problem hat gezeigt, dass viele IT-Hersteller in der Vergangenheit mit der Darstellung von Zeit etwas sorglos umgegangen sind. Jetzt haben wir eine kurze Pause und im Jahr 2038 könnte ein ähnliches Problem auf uns zukommen.

Ingolf Wittmann, CTO und Leader of HPC Europe bei IBM (Bild: IBM)

Ingolf Wittmann:: Oh! Redet noch jemand über diese “2038”-Geschichte? Ja, es erinnert an das Jahr-2000-Problem. Damals gab es viele Diskussionen und viel Panik. Aber es gab keinen Super-GAU, es gab keinen größeren Impact, alle Flugzeuge sind geflogen, alle Flughäfen waren geöffnet.

Beim Jahr-2038-Problem reden wir über Systeme mit 32-Bit-Codierungen. Es kann passieren, dass an einem bestimmten Tag im Jahr 2038 ein Overflow eintritt. Das grundsätzliche Problem ist, dass bei 32-Bit-Systemen das Datum in Zahlen dargestellt ist. Aber ganz ehrlich – im Jahr 2038 reden wir hier bei IBM schon lange nicht mehr über 32-Bit-Systeme. 64-Bit- oder 128-Bit-Systeme werden dann Standard sein. Damit wird sich das Problem aus unserer Sicht von selbst erledigen.

silicon.de: Haben Sie eine Ahnung, wie viele 32-Bit-Syteme heute im Einsatz sind?

Wittmann: Das kann keiner so genau sagen. Alleine die Intel Architektur wird von so vielen unterschiedlichen Unternehmen in der Welt verbaut, dass es hierfür keine verlässlichen Zahlen gibt. Aber ein einfaches Zahlenspiel: Überlegen Sie: Die Abschreibungsdauer für große IT-System liegt bei fünf bis sieben Jahren, das ergibt einen quasi automatisierten Austausch aller Systeme innerhalb dieser Zeitspanne. Das Jahr 2038 ist also vier bis fünf Generationen entfernt.

Die Kunden der IBM haben schon heute ihre businesskritischen Server komplett auf 64-Bit-Systeme umgestellt. Und die meisten unserer Kunden arbeiten auf virtuellen Maschinen. Das sind keine 32-Bit-Systeme. Meiner Meinung nach sollte es im Geschäftsumfeld das Jahr-2038-Problem nicht geben.

Bedeutung von Time-Services für Enterprise-Computing

silicon.de: Zeit, Datum und Zeitstempel sind essenziell für Datenaustausch und für die Kommunikation über Internet und Datennetzwerke. Häufig sind die Zeitangaben in den Servern und Netzwerken nicht korrekt. Wie sehr beeinflusst das die “Internet-of-Things”-Konzepte?

Wittmann: An dieser Stelle liegt aus meiner Sicht das Problem vor allem in der Verwendung verschiedener Time-Services. Wenn wir auf der ganzen Welt innerhalb der Datennetzwerke auf die Millisekunde genau die richtige Zeit hätten, könnten wir heute schon ganz andere und viel bessere Dinge realisieren. Zum Beispiel ist bei der GPS-Lokalisierung Zeit extrem wichtig. Wenn wir eine exakte und allgemein gültige Zeit in den Netzwerken hätten, könnten wir Dinge auf den Zentimeter genau lokalisieren oder vermessen.

silicon.de: Hierfür gibt es schon seit Jahren verschiedene Business Cases. Zum Beispiel geht ein Kunde in einen Supermarkt und sein Smartphone navigiert ihn zu einem Angebot, für das er einen individuellen Preis abhängig von seinem Profil erhält.

Wittmann: Richtig. Genau das funktioniert nicht, weil wir keine einheitliche Zeit haben. Je nachdem mit welchem Time-Service ein Unternehmen oder ein Provider arbeitet, variiert die Zeit um ein, zwei oder vielleicht sogar drei Sekunden von der eines anderen Unternehmens mit einem anderen Time-Service. Und wenn Unternehmen in einem Netzwerk unterschiedliche Time-Services nutzen, stimmt die Zeit einfach nicht mehr. Die Folge ist, dass auch Standort- und GPS-Daten nicht identisch sind.

Aktienhandel und Trading: Zeit ist Geld

silicon.de: Welche Folgen hat das für das Business über das Internet? Beispielsweise den Aktienhandel von Banken.

Wittmann: Der Börsenhandel ist eine andere Aufgabenstellung. Hier geht es nicht um die Bestimmung des Standortes, sondern um die Distanz zwischen verschiedenen Standorten. Entfernung ist Latenz und je größer die Entfernung desto größer die Latenz.

Bei der Transaktionsverarbeitung der Banken geht es um Millisekunden. Je weiter eine Bank vom zentralen Rechenzentrum einer Börse entfernt ist, mit desto mehr Zeitverzögerung platziert sie ihre Käufe und Verkäufe. Deshalb sitzen die Highspeed-Trader rund um die Rechenzentren der Börsen. Um punktgenau zu planen und zu platzieren, muss die Bank am besten Stecker an Stecker mit dem Rechenzentrum arbeiten.

Im Sommer 2017 hat Darmstadt den vom Bitkom in Zusammenarbeit mit dem Deutschen Städte- und Gemeindebund (DStGB) initiierten Wettbewerb “Digitale Stadt” gewonnen. 2018 soll dann der Ausbau zur Modellstadt beginnen (Bild: Bitkom)

silicon.de: Vor drei Jahren gab es viel Wirbel und Diskussionen um die Verbindung der Finanzstandorte London und New York mit einem Highspeed-Kabel …

Wittmann: Wir sehen einen Trend dahin, dass sich immer mehr Provider in der Region Frankfurt-Darmstadt ansiedeln. Der Hintergrund ist, dass hier das größte Kabel liegt und sich hier der wichtigste Internet-Hub für Europa befindet. Deshalb sitzen die Banken, die Trader, die Internet-Provider, die größten Rechenzentren in und um Darmstadt.

silicon.de: Das heißt, die Zeit in Darmstadt bestimmt die Zeit im Internet? Ist Darmstadt der Internet-Meridian, so etwas wie das neue Greenwich im digitalen Zeitalter?

Wittmann: Was das Internet angeht ja. Darmstadt ist das Greenwich des Internets. Das kann man so sagen.

silicon.de: Wie kommen die Aufträge für Käufe und Verkäufe zu den Servern? Geht es tatsächlich nur nach dem Eingang eines Auftrages? Oder auch darum, wann der Auftrag abgeschickt wurde?

Wittmann: Wenn Sie in Singapur traden wollen, müssen sie einfach früher aufstehen. Es gibt die Universal-Time. Alle arbeiten mit einer einheitlichen Zeit, die in die jeweiligen Zeitzonen umgerechnet wird. Aber die Systeme selber arbeiten mit Sequencing. Alle Anfragen werden tatsächlich in der Reihenfolge mit einem Zeitstempel versehen und abgearbeitet, in der sie an den Servern ankommen. Wenn jemand als erster ankommen möchte, ist also die Nähe zum Server entscheidend.

Menschen sind hier nicht mehr involviert. Die Tradingsysteme sind voll automatisiert und bestimmen, was gekauft und was verkauft wird. Das ist ein großer Vorteil aber auch ein hohes Risiko.

Zeitstempel in der Produktion

silicon.de: Lassen Sie uns auf die Produktionen der Unternehmen schauen. Welche Rolle haben die Zeitstempel hier?

Wittmann: Wenn wir bis auf die einzelnen Produkte runtergehen, können wir über die Zeitstempel beispielsweise die Qualität verfolgen. In der Lebensmittelbranche oder in der Pharmaindustrie ist das ein riesiges Thema. Alle Unternehmen wollen Produkte mit exakten Zeitstempeln haben.

Der Business Case könnte sein, dass ab einem Zeitpunkt X das System einen Fehler bei der Mischung der Zutaten gemacht. Das Problem kann schnell bis auf die Sekunde eingegrenzt und die fragliche Charge aussortiert werden. Standort, GPS oder Latenz sind bei diesen Anwendungen zweitrangig. Wichtig ist, dass alle Produktion-Server innerhalb eines Netzwerkes mit einer einheitlichen Zeit arbeiten.

silicon.de: Von hier aus ist es nur ein kleiner Schritt zur Künstlichen Intelligenz. Welche Rolle haben Zeitsysteme und Zeitstempel bei dieser Technologie?

Wittmann: Da haben wir kritische Anwendungen etwa bei der Sensorik. Die Wartung einer Maschine – etwa einer Flugzeugturbine – ist laut Handbuch nach einer bestimmten Zeit vorgeschrieben. Wenn die Techniker allerdings die Daten aus den Sensoren auslesen und mit KI analysieren, kann das System Empfehlungen geben: Die Wartung sollte vorgezogen werden, weil ein wichtiges Teil verschlissen ist. Oder die Wartung hat noch Zeit, die Turbine eines Flugzeuges kann auf weiteren zwei oder drei Flügen eingesetzt werden.

Lassen Sie uns beim Beispiel der Turbine bleiben – eine Turbine hat rund 2000 Sensoren. Bei der Auswertung dieser Sensoren sind Zeitreihen im Bereich von Millisekunden interessant. Andere Sensoren liefern ihre Daten in anderen Intervallen. Vielleicht alle zehn oder fünfzehn Minuten. Die Aufgabe ist es jetzt, die Daten zu aggregieren und zusammenzubringen. Wenn Sie das sauber lösen, kann die Künstliche Intelligenz exakte Vorhersagen machen, zu welchem Zeitpunkt eine Komponente verschlissen ist und ausgetauscht werden sollte.

Ausgewähltes Whitepaper

SAP S/4HANA trifft ECM: Was Sie für eine erfolgreiche Migrationsstrategie beachten sollten

Ceyoniq beleutet in diesem Whitepaper anhand von sechs Thesen die wichtigsten Aspekte zum Thema und gibt Tipps für eine erfolgreiche Migrationsstrategie.

Redaktion

Recent Posts

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

9 Stunden ago

SoftwareOne: Cloud-Technologie wird sich von Grund auf verändern

Cloud-Trends 2025: Zahlreiche neue Technologien erweitern die Grenzen von Cloud Computing.

9 Stunden ago

KI-basierte Herz-Kreislauf-Vorsorge entlastet Herzspezialisten​

Noah Labs wollen Kardiologie-Praxen und Krankenhäuser in Deutschland durch KI-gestütztes Telemonitoring von Patienten entlasten.

9 Stunden ago

IBM sieht Nachhaltigkeit als KI-Treiber

Neun von zehn deutschen Managern erwarten, dass der Einsatz von KI auf ihre Nachhaltigkeitsziele einzahlen…

14 Stunden ago

Wie KI das Rechnungsmanagement optimiert

Intergermania Transport automatisiert die Belegerfassung mit KI und profitiert von 95 Prozent Zeitersparnis.

1 Tag ago

Zukunft der europäischen Cybersicherheit ist automatisiert

Cyberattacken finden in allen Branchen statt, und Geschwindigkeit und Häufigkeit der Angriffe werden weiter zunehmen,…

1 Tag ago