Categories: KIStudie

Gartner: Ein Drittel der Unternehmen nutzen oder implementieren Tools für Sicherheit von KI-Anwendungen

Für die Umfrage hat Gartner Anfang April 2023 150 IT- und Informationssicherheits-Führungskräften in Unternehmen der eigenen Peer-Community-Umfrage befragt, in denen GenAI oder generative Modelle im Einsatz sind, deren Einsatz geplant ist oder erforscht wird.

“IT-, Sicherheits- und Risikomanagement-Verantwortliche müssen neben der Implementierung von Sicherheitstools auch die Unterstützung einer unternehmensweiten Strategie für KI TRiSM (Vertrauens-, Risiko- und Sicherheitsmanagement) in Betracht ziehen”, so Avivah Litan, Analyst bei Gartner. “AI TRiSM verwaltet Daten- und Prozessflüsse zwischen Nutzern und Unternehmen, die generative KI-Grundlagenmodelle hosten, und muss kontinuierlich erfolgen, um eine Organisation zu schützen.”

Für GenAI-Sicherheit ist die IT verantwortlich

Während 93 Prozent der befragten IT- und Sicherheitsverantwortlichen angaben, dass sie zumindest in gewissem Maße an den GenAI-Sicherheits- und Risiko-Managementmaßnahmen  ihres Unternehmens beteiligt sind, gaben nur ein Viertel an, dass sie die Verantwortung dafür tragen.

Von den Befragten, die nicht die Verantwortung für die GenAI-Sicherheit und/oder das Risikomanagement tragen, gaben 44 Prozent an, dass die letztendliche Verantwortung für die GenAI-Sicherheit bei der IT liegt. Für 20 Prozent der Befragten liegt die Verantwortung bei den Abteilungen für Governance, Risiko und Compliance ihres Unternehmens.

Top-of-Mind-Risiken

Die mit GenAI verbundenen Risiken sind erheblich, kontinuierlich und werden sich ständig weiterentwickeln. Die Umfrageteilnehmer gaben an, dass unerwünschte Ergebnisse und unsicherer Code zu den Risiken gehören, die ihnen beim Einsatz von GenAI am meisten auffallen. 57 Prozent der Befragten sind besorgt über das Durchsickern von Geheimnissen in KI-generiertem Code und 58 Prozent sind besorgt über falsche oder verzerrte Ergebnisse.

“Unternehmen, die das KI-Risiko nicht im Griff haben, werden erleben, dass ihre Modelle nicht wie beabsichtigt funktionieren und im schlimmsten Fall Menschen- oder Sachschäden verursachen können”, so Litan. “Dies führt zu Sicherheitsmängeln, finanziellen und Reputationsverlusten und zur Schädigung von Personen durch falsche, manipulierte, unethische oder voreingenommene Ergebnisse. KI-Fehlleistungen können auch dazu führen, dass Unternehmen schlechte Geschäftsentscheidungen treffen.”

Roger Homrich

Recent Posts

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

18 Stunden ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

19 Stunden ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

20 Stunden ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago

Künstliche Intelligenz erreicht die Cloud

KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.

5 Tagen ago

AI Act: Durchblick im Regulierungsdickicht

Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.

5 Tagen ago