Die US-Präsidentschaftswahl im Jahr 2024 rückt näher und damit wächst die Befürchtung, dass Fortschritte in der künstlichen Intelligenz dazu genutzt werden könnten, die demokratische Entscheidungsfindung zu stören. Frühere Technologien wurden in erster Linie in Wahlkampagnen eingesetzt, um bestimmte Inhalte zu kuratieren und mit den Zielgruppen abzugleichen. Heute ist die Technologie zunehmend in der Lage, maßgeschneiderte Inhalte zu erstellen, was die Besorgnis über ihren Einfluss auf den öffentlichen Diskurs schürt.
Beim Cambridge-Analytica-Skandal im Jahr 2018 ging es um die unbefugte Nutzung der Daten von Social-Media-Nutzern. Diese Informationen wurden genutzt, um Wählerprofile zu erstellen und ihnen Inhalte zu liefern, die eng mit den Weltanschauungen der Zielpersonen übereinstimmten. Der Engpass bei dieser Form der Beeinflussung waren jedoch die Kosten für die Personen, die entsprechende Inhalte entwickelten, sie veröffentlichten und sich gleichzeitig auch mit der Sprache, Kultur, Politik und Psychologie des Ziellandes auskannten.
Seit der Einführung von ChatGPT Ende 2022 ist es jedoch einfacher und wesentlich günstiger geworden, automatisch personalisierte Texte zu erstellen. Dabei können spezifische Parameter wie Alter, Geschlecht und geografischer Standort sowie Ziele festgelegt werden, die automatisch in die API eingespeist werden. So entsteht ein überzeugender personalisierter Text, der die Zielgruppen im Sinne der Erfinder beeinflussen soll. Der Output kann sogar verwendet werden, um vollständige Konversationen zwischen der KI und der Zielperson zu generieren. Der eigentliche Durchbruch liegt aber in der Fähigkeit, diese personalisierten Inhalte in großem Maßstab und zu geringen Kosten zu produzieren. Die Qualität dieser Texte hat sich so weit verbessert, dass KI alsbald dazu fähig sein könnte, menschliche Gefühle, Gedanken und Entscheidungen jenseits des menschlichen Selbstverständnisses zu antizipieren und zu manipulieren.
Eines der wichtigsten Werkzeuge der KI-Technologie ist dabei ihre Fähigkeit, betrügerische Sprach- und Videoaufnahmen zu fälschen. Dieser Fortschritt droht, die Grenzen zwischen echten und gefälschten Darstellungen von Ereignissen zu verwischen. Da solche Tools immer leichter zugänglich und erschwinglicher werden, wächst die Sorge, dass die Unterscheidung zwischen authentischen Berichten und gefälschten Aufnahmen nahezu unmöglich wird, insbesondere im politischen Bereich. So tauchte beispielsweise ein gefälschtes Deepfake-Video des ukrainischen Präsidenten Wolodymyr Selenskyj auf, in dem dieser die vermeintliche Kapitulation der Ukraine verkündete. In diesem Beispiel wurde das Video stümperhaft erstellt und war leicht als Fake zu entlarven. Doch es gibt auch Fälle wie den des Telefonats zwischen der ehemaligen Bürgermeisterin Berlins, Franziska Giffey (SPD), und (dem vermeintlichen) Vitali Klitschko im Juni 2022, wobei lange Zeit nicht klar war, ob es sich um den echten Kiewer Bürgermeister handelte.
Die Möglichkeit, über KI personalisierte Texte, Videos und Bilder zu erstellen und diese mikrogezielt an Wählergruppen zu senden, erzeugen neue Herausforderungen für Politik und Gesellschaft. Fingierte Inhalte und Informationen können dafür sorgen, dass Diskussionen jeder sachlichen Grundlage entbehren. Ihre Erstellung und Verbreitung hat weitreichende Auswirkungen auf demokratische Prozesse. Sie bedrohen somit die erste Voraussetzung für demokratische Wahlen – die Existenz eines freien, sinnvollen Austauschs von Ideen und Meinungen. In einer Realität, in der es immer schwieriger wird, Fälschungen zu erkennen, werden Quelle und Kontext einer Nachricht zu einem entscheidenden Faktor. Wenn die Wahrheit gefährdet ist, wird jedoch auch eine höhere Sensibilisierung gegenüber Lügen und Betrügern und somit Abschreckung vor der Verbreitung falscher Informationen geschaffen. Glaubwürdigkeit und ein vertrauenswürdiger Ruf werden zu einem wertvolleren Gut.
Um diese Probleme wirksam anzugehen, braucht es die Zusammenarbeit mehrerer Akteure. Zuallererst müssen die Anbieter von KI proaktive Maßnahmen ergreifen, um den Missbrauch ihrer Technologie zu verhindern. Dazu müssen Regulierungsbehörden ihre Richtlinien neu bewerten und aktualisieren.
Die wichtigste Voraussetzung für die Bewertung von Informationen ist jedoch die Nachvollziehbarkeit der Informationsquelle, der Identität des Sprechers und seiner Beweggründe. Daher wird in einigen Vorschlägen die Notwendigkeit betont, diese Details zusammen mit der Veröffentlichung KI-generierter Inhalte offenzulegen. Bei Gesprächen mit Bots wird gefordert, die Identität des Sprechers als KI-Chatbot zu deklarieren und die Absichten der KI zu verdeutlichen. Denkbar wäre hier, die Befehle aufzulisten, die dem KI-Bot zur Erstellung der Inhalte gegebenen wurden.
Auch Initiativen, die sich auf die Identität von Quellen konzentrieren, könnten der Beginn eines neuen Trends und Teil der Lösung sein. WorldCoin von OpenAI beispielsweise ist eine digitale Identifizierungsplattform, deren Ziel es ist, Menschen die Möglichkeit zu geben, zu überprüfen, ob sie mit echten Menschen interagieren. Auch in sozialen Medien könnte es einen Trend hin zur Validierung von Nutzerprofilen und Identitäten geben. Das erschwert das Treiben krimineller Nachahmer, schafft Abschreckung, erhöht die Glaubwürdigkeit sozialer Medien sowie ihrer User und kann obendrein die massenhafte Flut an Bots eindämmen. In einem Dschungel von zweifelhaften Informationen könnte außerdem journalistische Kredibilität umso mehr an Wert gewinnen. Wenn Informationen jeder Art gefälscht werden können, entscheiden sich Menschen womöglich eher für zuverlässige Quellen und Medien, die sich stärker für eine sorgfältige Überprüfung der Fakten, redaktionelle Standards und Verantwortlichkeit einsetzen.
Auch im Kontext politischer Wahlen ist die Beurteilung der Chancen und Gefahren, die sich durch KI eröffnen, ein zweischneidiges Schwert. Trotz aller aufkeimenden Probleme, die der Gesellschaft abseits des positiven Nutzens durch KI entstehen, ist es wichtig, sich daran zu erinnern, dass die Gesellschaft schon immer mit unvollständigen Informationen über die Realität zu kämpfen hatte. Manipulation, rhetorische Verdrehungen und Lügen sind nicht erst mit der KI-Ära in Mode gekommen. Je weiter man in der Zeit zurückgeht, desto weniger aktuell waren Nachrichten durch lange Übertragungswege und umso schwerer war die Überprüfung von Fakten. Angst vor KI zu schüren, könnte dieses Vertrauen weiter untergraben. Der öffentliche Diskurs hat jedoch nie absolute Objektivität und Wahrheitstreue garantiert und ist auch heute nicht kaputt.
Gleichzeitig schwindet das gesellschaftliche Vertrauen in genau diesen, was demokratische Wahlen, ihre Ergebnisse und die Bereitschaft der Verliererseite, eine Niederlage einzugestehen, zunehmend schwächt. Dieses Misstrauen kann wiederum einen friedlichen Machtwechsel beeinträchtigen, wie man beim Sturm auf das Kapitol im Januar 2021 in den USA sehen konnte. Um die eigene Wahrnehmung der Realität nicht von KI-generierten oder sonstigen Falschinformationen blenden zu lassen, gilt, was in Bezug auf Informationen schon immer galt: Wer Quellen kritisch hinterfragt, quer checkt, den gesunden Menschenverstand nutzt und sich eigenständiges Denken bewahrt, schützt sich am Ende des Tages noch immer am besten vor Manipulation – egal ob menschen- oder KI-gemacht.
Marco Eggerling
ist CISO EMEA bei Check Point Software Technologies.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…