Interview: Sieben Facetten der KI in der Cybersecurity

Künstliche Intelligenz (KI) hat in der Cybersicherheit weit mehr zu bieten als schnellere und genauere Angriffserkennung. Wir haben Fleming Shi, CTO von Barracuda, auf dem TechSummit 23 in Alpbach befragt.

Eine der größten Herausforderungen in der Cybersicherheit ist die Reduzierung der Komplexität. Wie kann KI hierbei helfen?

Fleming Shi: Es mangelt weltweit an Fachpersonal im Bereich Cybersicherheit, weil die Ressourcen einfach sehr, sehr knapp sind. Cyberangriffe finden ständig statt, und dennoch verbringen viele IT-Security-Experten ihre Zeit mit Schulungen zur Security Awareness. Stellen Sie sich vor, diese Schulungen würden stattdessen mittels künstlicher Intelligenz durchgeführt.

Die KI könnte zielgerichtete emulierte oder simulierte Angriffe durchführen. Generative KI kann die eigenen Waffen der Angreifer nutzen – beispielsweise eine Phishing-E-Mail, die speziell für einen Benutzer entwickelt wurde. Anstatt den Benutzer nur daran zu hindern, auf die bösartige Website zuzugreifen, könnte die generative KI, den Benutzer rechtzeitig schulen und ihn auf künftige Angriffe vorbereiten.

Auf diese Weise ersetzt die KI die Person, die sich sonst die Zeit nehmen müsste, eine simulierte Kampagne für ein Sicherheitstraining zu erstellen, so dass mehr Zeit für wichtigere IT-Security-Maßnahmen bleibt.

Die KI nutzt die Energie der Angreifer. Der gesamte Aufwand, den die Angreifer betrieben haben, um jemanden ins Visier zu nehmen und zu attackieren, wird nun für das Training und die Sensibilisierung des beabsichtigten Opfers verwendet. Zudem ist natürlich das Ausschalten der Waffe selbst ein wichtiger Teil des Prozesses.

KI könnte auch dazu beitragen, die Komplexität zu verringern, indem sie die Sicherheitslage überprüft und beispielsweise Missverständnisse oder Fehlkonfigurationen aufdeckt.

KI wird meistens auch als Basis für die Automatisierung der Security gesehen, was kann KI hier wirklich leisten?

KI wurde schon immer wegen ihrer Automatisierungsfähigkeiten geschätzt. Sie wird die von uns zu bewältigenden Datenmenge und Arbeitsaufkommen reduzieren. Aber KI braucht einen Benchmark. Zuerst muss klar sein: Was ist schlecht, wie tritt schlecht in Erscheinung? Wie tritt gut in Erscheinung?

Autonome Sicherheitsfunktionen können auch eine geschäftliche Investitionsentscheidung sein, um Produktivitätsverluste zu verringern. KI-Systeme müssen in der Lage sein, diese Auswirkungen auf das Geschäft zu berücksichtigen, indem sie Daten und Kontext berücksichtigen und Menschen dabei helfen, die richtigen Entscheidungen zu treffen.

Bei der KI geht es auch um Ursachenforschung in dem Sinne, dass sie herausfindet, was zu einem Vorfall oder einem unerwünschten Zustand der Sicherheitslage geführt hat. Indem sie aus den Zeitreihendaten, auf die sie Zugriff hat, alles lernt, kann die KI Benutzer an einen Punkt bringen, an dem diese den nächsten Vorfall vorhersagen und präventiv verhindern können.

Die Sicherheitssignale und Vorhersagefähigkeiten können dazu beitragen, die “Kill Chains” im Cyberspace kurzzuschließen, um eine viel schnellere Reaktion zu ermöglichen und die Belastung und den Schaden durch Cyberangriffe zu verringern. Die Automatisierung trägt zu diesen Mechanismen bei, um menschliche Fehler zu reduzieren und die Wiederherstellungszeit zu verkürzen.

Eine weitere fantastische Möglichkeit ist es, künstliche Intelligenz in der Zukunft zu nutzen, insbesondere dann, wenn es zu viele Daten gibt.

Stellen Sie sich vor, Sie müssen sehr schnell eine Entscheidung treffen. Ich denke, Menschen sind großartig darin, Modelle zu erstellen. Aber wir müssen Entscheidungen treffen und Schlüsse aus diesen großen Datenmengen ziehen. Dafür sind wir auf Maschinen angewiesen.

Das ist vergleichbar mit der Erfindung des Rades.

Fahrradfahren ist schneller als Gehen oder Laufen. Aber es ist immer noch viel langsamer als ein Mensch, der ein Auto fährt, bei dem wir die Drehung des Rades automatisiert haben. Der Mensch hat Bremssysteme eingebaut, um das Auto anzuhalten, und andere Mittel, um den Betrieb zu sichern. Man kann das, was wir mit Autos gemacht haben, auf KI übertragen – und das hilft, die Bedeutung von Governance und Kontrolle zu verstehen.

Bei der steigenden Bedeutung von KI in der Cybersicherheit werden Vertrauen und Transparenz bei KI immer wichtiger. Wie kann man dies erreichen? Hilft hier Zertifizierung?

Generative KI kann aus dem, was sie “weiß”, neue Inhalte generieren. Ob GPT3 Turbo oder GPT 4, PaLM von Google oder PanGU aus China, all diese Modelle werden mit Milliarden und in einigen Fällen sogar Billionen von Parametern trainiert.

Und ich denke, dass wir anfangs eine explosionsartige Zunahme der Datenerfassung für Trainingsmodelle erleben werden, bis die Menschen anfangen, den Datenzugang zu sperren. Ich glaube, dass es Vorschriften geben wird, gefolgt von einer Zertifizierung für das Training und die Bereitstellung großer Sprachmodelle.

Nehmen wir zum Beispiel den Einsatz von KI im Gesundheitswesen. Es wird eine Reihe von Anforderungen geben, genau wie HIPAA – ein US-Gesetz, das die Schaffung nationaler Standards zum Schutz sensibler Gesundheitsdaten von Patienten vor der Weitergabe ohne deren Zustimmung oder Wissen vorschreibt. Diese Anforderungen verlangen, dass die Elemente der KI-Nutzung kontrolliert und verwaltet werden, und dass die Sicherheitslage und die Überprüfung all dessen gewährleistet ist. Die Zertifizierung wird folgen, wahrscheinlich nach der anfänglichen explosiven Zunahme aller genetischen Eigenschaften und anderer verschiedener Anwendungsfälle. Dies wird die Sicherheitsperspektive für die Nutzung verbessern.

Besteht das Risiko einer Abhängigkeit von einer bestimmten KI oder einem speziellen KI- Provider?

Large Language Models (LLM) werden derart verfügbar sein, dass Sie sie in Ihrem eigenen Tenant verwalten können, zum Beispiel in einer Hyperscaler-Umgebung. Barracuda hat ein solches Modell, das Sage heißt. Wir haben es entwickelt, weil wir nicht wollten, dass unsere Mitarbeiter die Versionen verwenden, bei denen die Konversationen für Dritte offen sind.

Das Schöne daran ist, dass wir das LLM als Basismodell nehmen, es den Nutzern zur Verfügung stellen und ihnen kontextabhängige, präskriptive Funktionen bieten können. Und zwar auf sichere Weise, sozusagen mit Leitplanken. Außerdem können wir es zu einem multimodalen Erlebnis für die Nutzer ausbauen.

Nehmen wir an, ich habe bereits ein Modell, das Text liefern kann. PaLM 2 von Google ist sehr gut in Mathematik, weil es mit einer großen Menge an mathematischen Gleichungen trainiert wird. Man kann es also verwenden, um mathematische Probleme zu lösen. Dann gibt es noch visuelle und sprachliche Fähigkeiten, alle möglichen Arten von Fähigkeiten.

Zusammen kann man eine zusammengesetzte oder fast kollaborative Umgebung schaffen, in der die Werkzeuge der generativen KI Dinge erzeugen, die man als Mensch analysieren kann. Natürlich kann man sich noch nicht völlig auf das Ergebnis verlassen – man muss es überprüfen und validieren.

Wie steht es um die Sicherheit der KI selbst, das Risiko von Data Poisoning und Manipulationen der Modelle?

KI wird immer mehr zu einem wichtigen Bestandteil der Software-Lieferkette. Es werden die gleichen Sicherheits- und Compliance-Audits erforderlich sein wie bei jeder anderen Software von Drittanbietern.

In den letzten Jahren haben wir mehrere Angriffe auf die Software-Lieferkette erlebt, die zu enormen finanziellen Verlusten geführt haben, was alarmierend ist. Die Angreifer versuchen, das “Vertrauen” in die Software-Lieferkette auszunutzen, um in Unternehmen jeder Größe eindringen zu können. Das wird auch bei der KI der Fall sein. Ich erwarte, dass die Cyberkriminellen versuchen werden, KI-Modelle und die Prozesse, die diese Modelle trainieren und bedienen, zu beeinflussen und zu kontaminieren.

Um Cyberkriminalität zu bekämpfen, müssen wir KI wie ein Betriebssystem behandeln, bei dem bestimmte grundlegende Komponenten überwacht und im Betrieb ständig validiert werden. Jegliche Manipulation der Modelle und der Daten, die beim Training der Modelle verwendet werden, sollte Warnmeldungen auslösen, die zur Untersuchung und Kontrolle des Systems genutzt werden können.

Die meisten Angriffe gelten den digitalen Identitäten. Haben KI-Dienste auch eine digitale Identität? Wie prüft man dann deren Echtheit?

Wenn man darüber nachdenkt, dass KI eine digitale Identität hat und dass sie authentisch sein muss, ist das sehr ähnlich wie ein Zero-Trust-Ansatz für Endgeräte. Jedes Telefon, jeder Laptop hat ein Trusted Platform Module. Wahrscheinlich wird es irgendwann so weit sein, dass KI über ein TPM verfügt, mit dem man ihre Integrität prüfen und verifizieren kann.
Einiges davon könnte sogar mit Hilfe der Blockchain geschehen. Was ich wirklich interessant finde, ist, dass es wahrscheinlich diese Art von dezentraler Validierung braucht, damit wir die KI-Identität vertrauenswürdiger machen können.

Wird KI in Zukunft KI prüfen? Wer prüft dann den Prüfer?

Wenn KI mit KI zusammenarbeitet, wird es wahrscheinlich eine Art von Datenausgabe geben, die es einer dritten Institution oder vielleicht einer “polizeilichen KI” ermöglicht, die in Bezug auf Ethik und Antivoreingenommenheit strenger geregelt ist, die Ausgabe zu überwachen.

Bei dieser “polizeilichen KI” geht es weniger um die Konzepte, die ausgetauscht werden, sondern vielmehr um die Richtlinien, Vorschriften und Zertifizierungen. Eine unabhängige Überprüfung der Beteiligung der Modelle zur Kontrolle der KI-Interaktion.

Hinweis: Es gibt einen Report über weitere Themen des Barracuda TechSummit23.

Fleming Shi, CTO von Barracuda
Fleming Shi, CTO von Barracuda