Jailbreaking-as-a-Service für LLMs

Während KI-Technologien in der Wirtschaft rasch an Akzeptanz gewinnen, gab es im vergangenen Jahr in der Welt der Cyberkriminalität zwar Versuche, eigene cyberkriminelle Large Language Models (LLMs) zu entwickeln, doch diese wurden weitgehend aufgegeben. Stattdessen verlegten sich die Kriminellen darauf, bestehende Modelle zu „jailbreaken“, das heißt, sie mit speziellen Tricks dazu zu bringen, ihre integrierten Sicherheitsvorkehrungen zu umgehen.

So gibt es inzwischen Angebote wie Jailbreaking-as-a-Service. Hierbei nutzen Kriminelle raffinierte Techniken, um LLMs dazu zu bringen, Anfragen zu beantworten, die eigentlich blockiert werden sollten. Diese Techniken reichen von Rollenspielen über hypothetische Szenarien bis hin zur Nutzung fremder Sprachen. Dienstanbieter wie OpenAI oder Google arbeiten daran, diese Sicherheitslücken zu schließen. Cyberkriminelle Nutzer wiederum müssen deshalb auf raffiniertere Jailbreaking-Prompts zurückgreifen. So ist ein Markt für eine neue Klasse von kriminellen Diensten in Form von Chatbot-Angeboten für Jailbreaking entstanden.

FraudGPT, DarkBARD, DarkBERT, DarkGPT

„Wir haben uns die Untergrundgespräche über KI angeschaut und festgestellt, dass das Interesse an generativer KI den allgemeinen Markttrends gefolgt ist, die Akzeptanz jedoch hinterherzuhinken scheint. Wir haben auch LLM-Angebote von Kriminellen für Kriminelle gesehen. Darunter FraudGPT, DarkBARD, DarkBERT und DarkGPT, die viele Ähnlichkeiten aufweisen. Aus diesem Grund vermuten wir, dass sie höchstwahrscheinlich als Wrapper-Dienste für den legitimen ChatGPT oder Google BARD funktionieren – wir nennen sie Jailbreaking-as-a-Service-Dienste. Wir haben auch andere möglicherweise gefälschte kriminelle LLM-Angebote untersucht: WolfGPT, XXXGPT und Evil-GPT“, sagt David Sancho, Senior Threat Researcher bei Trend Micro.

Deepfake-Services auf dem Vormarsch

Zwar gibt es Deepfakes schon länger, aber erst kürzlich wurden echte cyberkriminelle Angebote entdeckt. Kriminelle bieten Deepfake-Dienste an, um Systeme zur Identitätsüberprüfung zu umgehen. Besonders im Finanzsektor wird dies zu einem zunehmenden Problem, da Banken und Kryptowährungsbörsen immer strengere Überprüfungen verlangen.

Die Erstellung von Deepfakes wird immer günstiger und einfacher. Cyberkriminelle nutzen diese Technologie, um gefälschte Bilder und Videos zu erstellen, die selbst fortgeschrittene Sicherheitssysteme täuschen können. Dabei reicht oft schon ein gestohlenes Ausweisdokument, um ein überzeugendes Fake-Bild zu erstellen.

Roger Homrich

Recent Posts

IT-Roadies: Der Job des IT-Administrators im Motorsport

Raus aus dem Rechenzentrum und auf die Rennstrecke: Interview mit Friedemann Kurz, Leiter Motorsport IT…

1 Tag ago

Personalisierte Kundenansprache: Warum Unternehmen erst einmal zuhören sollten und wie KI dabei unterstützt

Unternehmen müssen genau hinhören, um Kundenbedürfnisse besser zu verstehen und Kunden gezielt ansprechen zu können,…

1 Tag ago

Fahrerassistenz: Mit KI gegen Reiseübelkeit

Fraunhofer-Forschende verbinden die Innenraum-Sensorik von Autos mit passenden Sprachmodellen. Fahrkomfort und Sicherheit sollen steigen.

2 Tagen ago

4 von 5 Unternehmen nutzen Cloud Computing

Die Akzeptanz ist in den letzten zwölf Monaten noch einmal deutlich gestiegen, so der diesjährige…

2 Tagen ago

“Erst Prozesse analysieren, dann KI gezielt einführen”

"Es gibt einige Fallstricke bei der Einführung von KI zu beachten, damit veränderte Prozesse wirklichen…

2 Tagen ago

KI-Regulierung Fehlanzeige

Eine Kaspersky-Studie unter C-Level-Entscheidern zeigt, dass nur 22 Prozent über unternehmensinterne Regeln zur KI-Nutzung nachdenken.

3 Tagen ago