Ein Ball rollt auf die Straße. Ein Kind läuft ihm hinterher, ohne sich umzuschauen. Dieses Beispiel haben wir schon in der Fahrschule kennengelernt. Und weil wir mit Straßenverkehr aufwachsen, entwickeln wir automatisch ein grundlegendes situatives Bewusstsein. Selbst ans Steuer dürfen wir aber erst, wenn wir gelernt haben, vorausschauend zu fahren. Das gilt für Menschen genauso wie für Maschinen.
Gegenwärtig können Autofahrer ihre Umgebung noch schneller erfassen und das Verhalten anderer Verkehrsteilnehmer besser antizipieren als KI-Systeme. Um autonomes Fahren straßentauglich zu machen, braucht die KI also noch einige Fahrstunden. In denen stehen folgende Module auf dem Lehrplan: Objekterkennung (Object Perception), Objektverfolgung (Object Tracking) und Objektvorhersage (Object Prediction). Angesichts der aktuellen Vorfälle, müssen wohl einige Systeme noch einmal die Schulbank drücken. Zuletzt fiel etwa ein Waymo-Robotaxi mit einer rund 30-sekündigen Irrfahrt im Gegenverkehr mitten in San Francisco auf – unweit von der Stelle, an der im vergangenen Jahr ein Cruise-Fahrzeug einen Unfall verursachte.
Menschen nehmen ihre Umwelt mit fünf Sinnen wahr – Sehen, Hören, Tasten, Riechen und Schmecken. Insbesondere die ersten drei sind für das Autofahren entscheidend. Ein Beispiel: Sobald wir Sirenen hören, schauen wir aufmerksam in alle Spiegel, um bereit zu sein, einem Rettungswagen Platz zu machen. Mit dem Tastsinn nehmen wir etwa Unregelmäßigkeiten beim Fahrgefühl wahr – Vibrationen im Fußraum, fehlenden Widerstand beim Lenken oder Ähnliches.
Autonome Fahrsysteme müssen dies erst lernen. Und das ist alles andere als banal. Eine Grundlage dafür ist die Objekterkennung. Um Objekte einordnen zu können, muss das System zunächst mithilfe von Sensoren ein digitales Abbild der Realität erschaffen. Unterschiedliche Anbieter setzen dafür auf unterschiedliche Technologien, unter anderem LIDAR, Radar und Kamera sowie Mikrofon, Ultraschall und GPS. Das soll einerseits die tatsächlichen Bedingungen im Straßenverkehr möglichst genau reflektieren und andererseits die Position des Autos in dieser Umgebung bestenfalls zentimetergenau verorten. Je besser ein solches System die Objekte auf der Straße und um sie herum identifizieren kann, desto unwahrscheinlicher sind Fehlreaktionen – zum Beispiel eine Vollbremsung wegen eines Schattens auf der Fahrbahn. Und je klarer das Bild der Umgebung ist, desto besser können auch die Vorhersagen erfolgen.
Man kann sich das ein wenig vorstellen wie bei Videospielen. Bei Auto-Rennspielen auf dem Atari oder C64 etwa war die Grafik so grob, dass man häufig Fantasie benötigte, um die Pixel-Objekte zu erkennen. Tauchte ein kleines Quadrat unvermittelt auf der Strecke auf – war das ein Hindernis oder ein zu sammelnder Bonuspunkt? Diese Frage stellt sich bei heutigen Rennspielen nicht mehr. Hier ist die Welt so detailliert dargestellt, dass es eher darauf ankommt, wie schnell die Spieler bei den rasanten Fahrgeschwindigkeiten ausweichen können.
Vor der gleichen Herausforderung stehen auch automatisierte Fahrsysteme. Kann die Objekterkennung zwischen einem Ball, einem Stein und einem Hund unterscheiden, kann sie die nächsten Schritte einleiten: langsamer werden, bereitmachen zum Ausweichen. Wohin ausweichen allerdings? Um das zu bestimmen, sind die Nachverfolgung und Vorhersage von Objektbewegungen notwendig.
Auf Basis unzähliger Stunden Test- und Simulationsfahrten haben die KI-Systeme „gelernt“, welche Reaktionen in welchen Situationen am wahrscheinlichsten sind. Tiere oder kleine Kinder sind allerdings sowohl für Menschen als auch für Computer ein unberechenbarer Faktor und daher umso wichtiger zu beobachten.
Bei Object Tracking steht daher die möglichst genaue Beobachtung von Objekten im Fokus, um potenziell bedrohliche Situationen frühzeitig zu erkennen. Object Prediction sagt schließlich anhand der statistisch häufigsten Reaktionen auf eine gegebene Reaktion voraus, was binnen der nächsten Sekunden voraussichtlich passieren wird. Fährt etwa ein PKW mit hoher Geschwindigkeit von hinten auf einen LKW auf, dann wird er bei freier Spur nach links ziehen und den LKW überholen. Ist die nächste Spur links nicht frei, wird er bremsen. Solche Situationen, die regelmäßig passieren und gut vorhersehbar sind, kann eine KI heute schon abbilden. Seltene oder unvorhersehbare Szenarien können dagegen herausfordernd sein. Das Dilemma dabei: Unter Umständen können Maschinen bereits bessere Statistiken aufweisen als Menschen – so etwa bei der Reaktionszeit für eine Notbremsung. Doch technische Fehler, die zu Schäden führen, erscheinen inakzeptabel. Die Software muss daher mindestens so ausgereift sein, wie die Hardware.
Das heißt: KI-Systeme müssen die korrekten Vorhersagen mit einer praktisch 100-prozentigen Sicherheit treffen, um Akzeptanz und Zulassung für den alltäglichen Straßenverkehr zu erlangen. Da die Menge der zugelassenen Pilotprojekte für Tests im öffentlichen Raum allerdings überschaubar ist, müssen die Daten dafür aus anderen Quellen stammen. Die Anbieter der Systeme müssen also die neuronalen Netze so lange anhand von Simulationen trainieren und testen, bis der autonome Fahrer möglichst jede Situation zu 100 Prozent korrekt einschätzt und reagiert. Und das wäre die Voraussetzung für vollautomatisiertes Fahren ohne Möglichkeit, als Mensch einzugreifen – also Level fünf.
Um diesen Status zu erreichen, müsste zunächst die Objekterkennung und -verfolgung absolut zuverlässig funktionieren – so weit ist die Technik allerdings noch nicht. Sobald die Anbieter der Object Prediction-Systeme einen hohen Sicherheitsstandard gewährleisten können, kann das dem autonomen Fahren insgesamt einen neuen Schub geben. Das dürfte allerdings noch einige Zeit auf sich warten lassen. In zehn Jahren könnte es Level vier auf öffentlichen Straßen erreicht haben, liest man immer wieder. Angesichts der zahlreichen ungeklärten technischen und regulatorischen Herausforderungen ist das eine sehr optimistische Einschätzung – zumindest hierzulande. Gegenwärtig müssen die Anbieter komplizierte und langwierige Verfahren durchlaufen, um Einzel- und Sondergenehmigungen zu erhalten. Bis Level vier gibt es immerhin schon gesetzliche Voraussetzungen – für Level fünf noch nicht.
Auch wenn Autos in immer mehr Situationen den Fahrer ersetzen können, bleiben vollständig fahrerlose Autos im Straßenverkehr erst einmal Zukunftsmusik. Schlechte Nachrichten für diejenigen, die sich etwa nach einem langen Flug im Schlaf nach Hause fahren lassen wollen: Als Autofahrer:in wird man auch in der näheren Zukunft noch bereit sein müssen, das Steuer jederzeit wieder selbst zu übernehmen.
Die Objekterkennung ist noch nicht ausreichend ausgereift, um sie als alleinige Entscheidungsgrundlage zu nutzen. Und die Objektvorhersage trifft Entscheidungen auf Basis dieser Daten. Die logische Konsequenz: Der Einsatz im laufenden Betrieb ist noch zu heikel. Anders als vollautomatisiertes Fahren sind die Möglichkeiten für Level zwei und drei in einen großen Teil moderner Autos integriert werden immer weiter ausgebaut. Zwischen diesen Leveln und dem vollautomatisierten Fahren auf Level vier und fünf klaffen jedoch große Lücken. Da kommen andere Sensoren und andere Software zum Einsatz. Deshalb werden wir voraussichtlich eine parallele Entwicklung beobachten können:
Auf der einen Seite steht die Weiterentwicklung der teilautonomen Fahrassistenten bis Level drei. Hier kann die Objektvorhersage zum Beispiel eine wichtige Rolle als zusätzliches Warnsystem spielen und auf Gefahrenquellen hinweisen. Die technische Unterstützung kann Fahrer:innen immer weiter entlasten, doch fahrtüchtig und bereit zum Eingreifen werden sie weiterhin bleiben müssen. Hier sehen wir aktuell bereits große Fortschritte und werden diese wohl auch zukünftig weiter beobachten können.
Auf der anderen Seite stehen die vollautomatischen fahrerlosen Fahrzeuge. Wann und ob wir diese wirklich hierzulande regelmäßig im Straßenbild sehen werden, bleibt abzuwarten. Die Entwicklung der notwendigen Technologien ist anspruchsvoll und es gibt keinen Spielraum für Fehler – denn diese sind lebensgefährlich. Deshalb sollten wir uns Zeit und Geduld nehmen, um hier mit Sorgfalt zu agieren. Bis das autonome Fahren dann einst so weit ist, werden wir wohl noch selbst auf die Bremse steigen müssen, wenn ein Ball auf der Straße rollt. Oder hoffen, dass unser Bremsassistent den Ball nicht für einen Schatten hält.
ist Softwareentwickler, Principal Consultant und Leiter Software-Defined Vehicle bei Thoughtworks Deutschland.
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…
Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…
Interdisziplinäres Lenkungsgremium mit Experten aus den Bereichen IT, Medizin, Pflege und Verwaltung sorgt für die…