Beim Einsatz von LLMs haben Cyberkriminelle drei Möglichkeiten. Der erste Ansatz ist, ein benutzerdefiniertes LLM zu entwickeln, was technisches Fachwissen und Ressourcen erfordert. Derzeit ist das Entwickeln einer allgemein für bösartige Zwecke geeigneten LLM, die etwa beim Programmieren von Malware unterstützt, jedoch noch unwahrscheinlich.
Die wirkliche und aktuell realistische Gefahr liegt in LLMs als effiziente Hilfsmittel für Betrug. Ein solcher pragmatische Einsatz entspricht eher der Arbeitsweise der Cyberkriminellen: Diese suchen in der Regel unkomplizierte, wiederholbare und skalierbare Playbooks als Vorlage für ihre Angriffe. Sie sind zudem wenig geneigt, zu viel Geld und Ressourcen in aufwändige, von KI-Tools abhängige Systeme zu investieren, welche dann nach einer Änderung dieser schnellebigen Werkzeuge nicht mehr funktionieren. Ein in Monaten entwickeltes und von ChatGPT abhängiges komplexes System kann durch wenige Zeilen veränderten Codes lahmgelegt werden. Zu hoch ist daher das Risiko, dass der Wert der aufwändigen Investition im Nu verloren ist.
Die zweite Möglichkeit besteht darin, reguläre LLMs zu jailbreaken. Dies erfordert allerdings Fachkenntnisse im Prompt-Engineering, was weniger technisch versierte Angreifer, die am meisten von LLMs profitieren würden, von der Nutzung ausschließt.
Die dritte Möglichkeit ist der Einsatz benutzerdefinierter Versionen von ChatGPT, die sich für bestimmte Zwecke erstellen lassen. Der GPT Builder von OpenAI bietet eine Plattform, mit der Benutzer ChatGPT für bestimmte Aufgaben anpassen können, ohne selbst programmieren zu müssen.
In diesem Zusammenhang stehen die Möglichkeiten von KI-generierter Malware und die damit verbundenen Folgen für die Cybersicherheit zurzeit intensiv in der Diskussion. Zwar kann man mit ChatGPT Malware-Code generieren, doch ist dieser nicht von besserer Qualität als das, was bereits als Massenware verfügbar ist. Das macht ihn für erfahrene Malware-Autoren, denen öffentliche Code-Repositories wie GitHub besseren Schadcode bieten, weniger attraktiv.
Was LLMs wirklich von älteren Machine-Learning-Modellen unterscheidet, sind ihre bemerkenswerten Fähigkeiten, natürliche Sprache zu verarbeiten und zu generieren. Dadurch kann generative KI den Cyberkriminellen ihr Handwerk erleichtern, insbesondere bei Social-Engineering-Angriffen und bei der Analyse großer Datenmengen zur Informationsbeschaffung.
Für das Verfassen betrügerischer Nachrichten senkt der Einsatz von LLM-gestützten Chatbots zum Beispiel Sprachbarrieren der Angreifer spürbar. Dadurch können Hacker anspruchsvollere Angriffe auf eine größere Anzahl von Adressaten ausweiten und die Glaubwürdigkeit von Phishing-Nachrichten erhöhen. LLMs unterstützen Kriminelle nicht nur hinsichtlich sprachlicher Aspekte wie Orthografie, Grammatik und korrekter Formulierungen in Fremdsprachen, sondern auch auf inhaltlicher Ebene wie der Gebrauch passender Branchenbegriffe, Insider-Akronyme oder aktueller Ereignisse, die Einfluss auf potenzielle Opfer haben.
Cyberkriminelle können generative KI in mehreren Bereichen für ihre Zwecke einsetzen.
Optimierte BEC-Angriffen
Mithilfe von LLMs können Angreifer etwa Kommunikationsstil, Terminologie und Insiderwissen von Vorgesetzten leicht und täuschend echt reproduzieren, indem sie deren früheren Konversationen in ihre Modelle einspeisen. Aktuell ist daher mit einem Anstieg von Business-Email-Compromise (BEC)-Angriffen auf Unternehmen aller Größen zu rechnen.
Plausiblere Betrugsversuche
Beim Vorschussbetrug bringen Kriminelle ihre Opfer unter Vorspielen falscher Tatsachen dazu, Gelder vorzustrecken. Im Rahmen des Gesprächs mit dem Opfer liefern die Täter häufig Gründe und Informationen, die allein schon mit dem gesunden Menschenverstand den falschen Urheber verraten können. LLM-Chatbots ermöglichen es Cyberkriminellen, die Glaubwürdigkeit ihrer Betrugsversuche zu erhöhen.
Skalierbarkeit hochentwickelter Angriffe
LLMs haben das Potenzial, die Einstiegshürde für hochentwickelte Angriffe, die viel Zeit, Mühe und Investitionen erfordern, erheblich zu senken, so dass sie für ein breiteres Spektrum an Kriminellen interessant sind. Dies vergrößert nicht nur den Pool potenzieller Angreifer, sondern es ermöglicht auch bereits erfahrenen Hackern, hochentwickelte Angriffe häufiger auszuführen.
Ransomware-Rechner
LLMs können, vergleichbar mit Tools wie Crunchbase, Angreifer beim Sammeln von Informationen über Unternehmen unterstützen. Sie bieten nicht nur Übersichten zu Hintergrund und Finanzstatus eines Unternehmens, sondern analysieren zusätzlich die neuesten Nachrichten in der Presse, inklusive Fusionen und Übernahmen. Eine der praktischsten und am einfachsten monetarisierbaren Einsatzmöglichkeiten von LLMs für Cyberkriminelle ist die KI-gesteuerte Sichtung und Analyse großer Datenmengen und damit einhergehend die Identifikation lukrativer Ziele. Ransomware-as-a-Service (RaaS)-Gruppen verfügen häufig über spezielle Open-Source-Intelligence-(OSINT)-Teams, die eine realistische Lösegeldforderung evaluieren und festlegen. Durch die intelligente Auswahl von Organisationen mit dem höchsten Druckpotenzial könnten Ransomware-Gruppen ihre Quote geleisteter Lösegelder maximieren.
Analyse öffentlicher Datenlecks
Die von LLMs generierten maßgeschneiderten Nachrichten lassen sich dafür verwenden, überzeugende Spear-Phishing-Angriffe zu entwickeln, indem die Cyberkriminellen Informationen aus bekannt gewordenen Datenlecks oder Unternehmenswebsites nutzen. Diese Automatisierung vergrößert den Umfang potenzieller Ziele und erhöht zugleich die Authentizität der bösartigen Kommunikation.
Bewerten exfiltrierter Daten
Schließlich können Cyberkriminelle LLMs nutzen, um Daten zu sichten, die sie bei Unternehmen erbeutet haben. Durch ihre Fähigkeit, natürliche Sprache zu verarbeiten, können die Modelle sensible Informationen in den gestohlenen Daten kategorisieren und identifizieren. Denn Terabytes von Daten zu stehlen, ist eine Sache. Daraus die Informationen gezielt zu extrahieren oder unverfügbar zu machen, die effektiv ein hohes Lösegeld generieren oder sich gut verkaufen lassen, steht auf dem nächsten Blatt.
Unternehmen sollten daher ihre grundlegenden Sicherheitsmaßnahmen stärken und einen mehrschichtigen Sicherheitsansatz verfolgen. KI-gestützte Sicherheitstechnologien, die unter anderem dafür entwickelt wurden, Social-Engineering-Angriffe zu erkennen, können zudem unterstützen, mittels fortschrittlicher natürlicher Sprachverarbeitung (NLP) die typischen Warnzeichen von Betrugsversuchen zu entdecken und die Gefahr im Keim abzuwehren.
ist Technical Solutions Director bei Bitdefender.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…