Und auch die Bundeswehr will zukünftig Roboter bewaffnen und mit mehr und mehr autonomen Funktionen ausstatten. Erst vor Kurzem haben die maschinellen Helfer vom deutschen Militär die Lizenz bekommen, Waffen zu tragen. Bislang dienten ferngesteuerte Roboter vornehmlich der Aufklärung und Überwachung.
Im Golfkrieg von 1991 übermittelten fliegende Drohnen Zielkoordinaten an die vor der Küste stationierten Kriegsschiffe, 1999 übermittelten sie in Echtzeit Bilder aus dem Kosovo. Datensammeln und Beobachten sind auch weiterhin die Hauptaufgaben unbemannter Systeme. Daneben sollen sie aber nun auch bei der Bundeswehr in der Lage sein, gegebenenfalls sofort zu reagieren. Und hier ist der Knackpunkt, denn wenn die Roboter anfangen selbständig Entscheidungen zu treffen, kann es auch gefährlich werden. Wie sollen Kampfroboter programmiert werden, damit sie sich nicht gegen die eigenen Truppen oder die Menschheit wenden?
Bis 2010 soll in den USA ein Drittel aller Fluggeräte für den Naheinsatz unbemannt sein und bis 2015 soll ein Drittel aller Militärfahrzeuge unbemannt sein, berichtet das Online-Portal ‘DerStandard’. Amerikanische Wissenschaftler der California State Polytechnic University haben im Auftrag des ‘Office of Naval Research’ der US-Navy einen Bericht über mögliche Gefahren beim Einsatz von Kampfroboter erstellt. In diesem Bericht gehen die Wissenschaftler davon aus, dass die Roboter der Zukunft schlau genug sein werden, um selbständig Entscheidungen zu treffen. Die Software einer solchen Maschine wird immer von mehreren Stellen geschrieben und ist am Ende so komplex, dass schnell auch was schief gehen könnte.
2008 gab es in den USA sogar schon einen ersten Zwischenfall mit Kampfrobotern. Roboter des US-Militärs waren bei einem Einsatz im Irak außer Kontrolle geraten und hatten sich gegen die eigenen Truppen gerichtet. Jedoch konnten die Maschinen rechtzeitig außer Gefecht gesetzt werden. Laut den US-Forschern sei es wichtig, den Kampfrobotern die Regeln der Kriegsführung zu erlernen, damit sie sich nicht gegen die eigene Mannschaft wenden. Doch bis dahin sind noch viele Fragen offen. Wie soll man zum Beispiel einen Roboter-Soldaten vor Hacker-Angriffen schützen und wer trägt die Verantwortung, wenn sich ein Roboter gegen die Zivilisation wendet?
Die Vernetzung in der Industrie optimiert mit KI Prozesse und reduziert mit Predictive Maintenance ungeplante…
Enterprise AI Maturity Index von ServiceNow: Im Durchschnitt erreichen Unternehmen nur einen KI-Reifegrad von 44…
Wer auf Wechselmedien – wie USB-Laufwerke – angewiesen ist, muss wachsam bleiben, da diese Geräte…
Das Thema künstliche Intelligenz wird immer relevanter. Diese Technologie hat Einfluss auf Arbeitsweisen, Politik und…
SAP S/4HANA-Transformationen sind äußerst komplex und verlaufen oft nicht wie geplant – oder scheitern sogar…
Der Black Friday, der in den USA traditionell am Freitag nach Thanksgiving gefeiert wird, hat…
View Comments
Auf zum Kampf gegen neue Feinde mit alten Mitteln
Wenn wir schon jetzt kein richtiges Deutsch mehr können, werden wir die Maschinen auch nichts vernünftiges lehren können und sie werden „lernen“ (oder schwülstiger ausgedrückt „erlernen“), dass wir etwas beschränkt und damit leicht zu besiegen sind.
Also stählen wir uns mit vernünftiger Muttersprachkenntnis für den Kampf gegen den neuen Feind, den außer Rand und Band geratenen Kampfroboter.