Categories: GastbeitragKI

Macht KI IT-Systeme sicherer?

ChatGPT, der dialogbasierte KI-Chatbot, der die natürliche menschliche Sprache verstehen kann, ist zu einer weiteren Ikone im Ökosystem der Disruptoren geworden. Mit über 1 Million registrierten Nutzern in nur 5 Tagen ist es die am schnellsten wachsende Tech-Plattform aller Zeiten. ChatGPT generiert beeindruckende Texte, die durchaus von einem Mensch geschrieben sein könnten. Darüber hinaus kann ChatGPT aber auch Code schreiben. Und ChatGPT kann hacken, was aus Sicht der Informationssicherheit ein großes Problem darstellt und die Web3-Community in Aufruhr versetzt. Die Auswirkungen und der schiere Einfallsreichtum dieses KI-Chatbots, der Code analysieren und Schwachstellen in Sekundenschnelle aufspüren kann, macht sie sprachlos.

KI deckt Schwachstelle auf und reagiert schnell

Nach dem Hype um ChatGPT findet nun ein Wettlauf zwischen Chat GPT von OpenAI und Googles LaMDA statt, um das marktführende NLP-Suchwerkzeug (natural language processing) für Nutzer und Unternehmen zu werden. Obwohl OpenAI ein Neuling ist, muss Google schnell innovieren und sich anpassen, um nicht Gefahr zu laufen, den Anschluss zu verlieren. Google nimmt dies ernst und hat einen “Code Red” zur Entwicklung eines neuen KI-basierten Suchmaschinenprodukts angekündigt, um OpenAI entgegenzuwirken. Ironischerweise nutzt ChatGPT dieselbe KI-Plattform, die von Googles Ingenieuren 2017 entwickelt wurde.

Wie sich dies in Zukunft genau auf die Cybersicherheit auswirken wird, ist unbekannt. Aber langfristig könnte es einen positiven Effekt geben, auch wenn die KI kurzfristig sehr viele Schwachstellen aufdecken könnte. Sie kann dadurch aber helfen, die Abwehr zu verbessern, da sie potenzielle Bedrohungen besser erkennt und versteht. Und die KI könnte dabei helfen, schneller und effektiver auf Cyberangriffe zu reagieren und sich von ihnen zu erholen, indem Aufgaben wie die Reaktion auf Vorfälle und die Untersuchung automatisiert werden.

Intelligenterer und robusterer Code

Durch die Analyse großer Datenmengen und den Einsatz fortschrittlicher Algorithmen des maschinellen Lernens könnte KI in Zukunft Muster und Trends erkennen, die auf einen bevorstehenden Cyberangriff hindeuten, so dass Unternehmen Präventivmaßnahmen ergreifen können, bevor ein Angriff erfolgt, und damit das Risiko von Datenschutzverletzungen und anderen Cybervorfällen minimieren. So wären Unternehmen potenziellen Angriffen einen Schritt voraus.

Durch die Integration von KI in die Produktionspipeline eines Unternehmens kann zudem intelligenterer und robusterer Code erstellt werden, indem Entwickler die KI anweisen, den Code zu schreiben, zu generieren und bestehende Code zu überprüfen. KI kann Entwickler derzeit allerdings nicht komplett ersetzen, da sie nicht alle Feinheiten von Systemen und Geschäftslogiken und deren Zusammenspiel verstehen kann. Daher müssen Entwickler weiterhin die Ergebnisse der KI lesen und kritisieren, Muster lernen und nach Schwachstellen suchen.

KI wird sich positiv auf die Fähigkeit des CISO und des IT-Teams auswirken, in Echtzeit zu überwachen. Die Sicherheitsbudgets werden gekürzt, die Größe der Cybersicherheitsteams wird ebenfalls sinken. Gefragt sein, werden vielmehr diejenigen, die mit KI arbeiten und sie interpretieren können.

Naoris-Protokoll erkennt Verhaltensänderungen bei Geräten und Netzwerken

Andererseits könnten böswillige Akteure den Angriffsvektor vergrößern und intelligenter und schneller arbeiten, indem sie KI anweisen, in der bestehenden Code-Infrastruktur nach Exploits und Schwachstellen zu suchen. Die harte Wahrheit: Tausende von Plattformen und Smart Contracts wären plötzlich angreifbar, was zu einem kurzfristigen Anstieg von Cyber-Verletzungen führen könnte.

Da ChatGPT und LaMDA auf große Datenmengen angewiesen sind, um effektiv zu funktionieren, könnte es zu ungenauen oder fehlerhaften Ergebnissen führen, wenn die Daten, die zum Trainieren dieser Technologien verwendet werden, verfälscht oder unvollständig sind. Das Naoris Protocol verwendet die Schwarm-KI nur, um die Metadaten der bekannten Betriebsgrundlagen von Geräten und Systemen zu überwachen und sicherzustellen, dass sie nicht in irgendeiner Weise manipuliert worden sind. Daher erkennt die KI des Naoris-Protokolls nur Verhaltensänderungen bei Geräten und Netzwerken und bezieht sich dabei auf bekannte Informationen wie Betriebssystem- und Firmware-Updates, anstatt zu lernen und Entscheidungen auf der Grundlage verschiedener individueller Meinungen zu treffen.

Es ist auch wichtig, die potenziellen ethischen Auswirkungen der Verwendung von ChatGPT und LaMDA für die Cybersicherheit zu berücksichtigen. So könnten beispielsweise Bedenken hinsichtlich des Schutzes der Privatsphäre und der Verwendung personenbezogener Daten für die Schulung dieser Technologien bestehen oder hinsichtlich der Möglichkeit, dass sie für böswillige Zwecke verwendet werden. Das Naoris-Protokoll überwacht jedoch nur Metadaten und Verhaltensänderungen in Geräten und intelligenten Verträgen, nicht aber personenbezogene Daten (Personal Identifiable Information, PII).

Fazit: Geist ist jetzt aus der Flasche

Unternehmen müssen KI-Dienste in ihre Sicherheits-QA-Workflow-Prozesse implementieren und nutzen, bevor sie neue Codes/Programme einführen. KI ist aber kein Mensch und wird daher grundlegende Feinheiten übersehen, die nur Menschen erkennen können. Sie ist ein Werkzeug, das Schwachstellen verbessern wird, die von Menschen fehlerhaft kodiert wurden. Es wird die Qualität des Codes in allen Web2- und Web3-Organisationen erheblich verbessern.

Die von IBM gemessene Zeit für die Aufdeckung von Sicherheitsverletzungen (IBMs 2020 Data Security Report) beträgt derzeit durchschnittlich bis zu 280 Minuten. Durch den Einsatz von KI-Systemen wie der Cybersicherheitslösung von Naoris Protocol als Teil einer unternehmensweiten Defense-in-Depth-Position kann die Erkennungszeit von Sicherheitsverletzungen auf weniger als 1 Sekunde reduziert werden.

Noch ist KI eine relativ neue Technologie, die sich noch in der Entwicklung und Verfeinerung befindet, weshalb wir ihren Ergebnissen nie zu 100 Prozent vertrauen können. Menschliche Entwickler werden immer gebraucht, um sicherzustellen, dass der Code robust ist und die geschäftlichen Anforderungen eines Unternehmens erfüllt. KI wird jedoch von beiden Seiten eingesetzt – von guten und schlechten Akteuren, um sich einen Vorteil zu verschaffen. Da die Regulierung der Technologie um einige Jahre hinterherhinkt, müssen die Unternehmen eine Mentalität der Cybersicherheit in ihrer gesamten Belegschaft einführen, um die wachsende Zahl von Hacks zu bekämpfen. Der Geist ist jetzt aus der Flasche, und wenn eine Seite nicht die neueste Technologie einsetzt, ist sie in einer Verliererposition. Wenn es also eine offensive KI gibt, brauchen die Unternehmen das beste KI-Tool, um sich zu verteidigen. Es ist ein Wettrüsten darum, wer das beste Tool hat.

Monica Oravcova

ist COO & Mitbegründerin Naoris Protocol und Cyber Entrepreneur und Evangelistin für Security, Blockchain und KI

Roger Homrich

Recent Posts

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

1 Tag ago

Künstliche Intelligenz erreicht die Cloud

KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.

2 Tagen ago

AI Act: Durchblick im Regulierungsdickicht

Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.

2 Tagen ago

Coveo beschleunigt europäisches Wachstum durch Expansion in der DACH-Region

Neue Kunden sind unter anderem SAP, Conforama Schweiz, 11teamsports, Phillip Morris International, Baywa und Thalia.

3 Tagen ago

Britische Behörden setzen auf Oracle Cloud

Oracle schafft einheitliche Plattform für vier Ministerien und über 250.000 Beamte mit der Oracle Applications…

3 Tagen ago

Windows 10: Wer haftet für Datenschutz nach Support-Ende?

Der Grund: Geräte, die mit veralteter Software arbeiten, sind anfällig für Cyberangriffe und Datenlecks.

3 Tagen ago