Komplexere Schwachstellen durch generative KI
Large-Language-Modelle (LLM) halten Einzug in immer mehr IT-Produkte. Aus Sicht von Kaspersky nimmt damit die Größe der Angriffsflächen deutlich zu.
Der Sicherheitsdienstleister hat die Auswirkungen von Künstlicher Intelligenz (KI) auf die Sicherheitslandschaft untersucht. Im Fokus steht der Einsatz durch Angreifer, aber auch wie man sie in der Abwehr nutzen kann. Vor diesem Hintergrund sieht Kaspersky diese fünf Topthemen:
Komplexere Schwachstellen. Textbefehlen folgende LLMs werden zunehmend in Verbraucherprodukte integriert. Hierdurch werden neue komplexe Schwachstellen an der Schnittstelle von (probabilistischer) generativer KI und traditionellen (deterministischen) Technologie entstehen. Infolgedessen wird die Angriffsfläche größer. Entwickler müssen daher neue Sicherheitsmaßnahmen schaffen, indem sie beispielsweise Nutzer-Zustimmungen zu von LLM-Agenten eingeleiteten Aktionen fordern.
Umfassender KI-Assistent für Cybersicherheitsexperten. Red-Team-Mitglieder und Sicherheitsexperten setzen das Potenzial generativer KI zunehmend für innovative Cybersicherheitstools ein. Dies könnte zur Entwicklung von Assistenten führen, die LLM oder Machine Learning (ML) einsetzen, um Red-Team-Aufgaben zu automatisieren. [Hinweis Silicon: Red Teams arbeiten als externe Angreifer im Auftrag von Unternehmen und Behörden, um die Wirksamkeit des dortigen IT-Sicherheitsmanagements zu testen.]
Neurale Netzwerke zur Bildgenerierung für Scams. In diesem Jahr könnten Betrüger ihre Taktiken ausweiten, indem sie neurale Netzwerke und KI-Tools nutzen, um überzeugendere Betrugsinhalte zu erstellen.
KI wird die Cybersicherheitswelt nicht grundlegend verändern. Trotz des KI-Trends erwartet Kaspersky keine grundlegende Veränderung der Bedrohungslandschaft in naher Zukunft. Genauso wie Cyberkriminelle werden auch IT-Sicherheitsverantwortliche dieselben oder fortschrittlichere generative KI-Tools einsetzen, um die Sicherheit von Software und Netzwerken zu verbessern.
Mehr Initiativen und Regularien. Synthetische (künstlich erzeugte) Inhalte werden gekennzeichnet werden müssen, so dass weitere Regulierungen und Investitionen in Erkennungstechnologien notwendig sind. Entwickler und Wissenschaftler werden Methoden entwickeln, um synthetische Medien durch Wasserzeichen leichter identifizierbar und rückverfolgbar zu machen.