Generative KI Compliance-konform nutzen

Wie Unternehmen ChatGPT gewinnbringend und rechtskonform einsetzen können, erklärt Gerald Martinetz von Mindbreeze.

Unternehmen erkennen zunehmen das große Potenzial generativer KI, um zu vereinfachen und die Effizienz drastisch zu steigern. Es gibt jedoch Herausforderungen, die mit der Nutzung von öffentlich zugänglicher, generativer KI im professionellen Kontext auftreten.

Datenhalluzinationen

Bei einer sogenannten Datenhalluzination erzeugen LLMs Falschaussagen, die durch kohärente und flüssige Texte plausibel erscheinen. Generierte Antworten sind häufig unvollständig sowie veraltet, oder beinhalten schlichtweg Falschinformationen, wodurch sie Unternehmen nicht selten zu Fehlentscheidungen verleiten. So liefern öffentlich zugängliche KI-Modelle wie ChatGPT Anwendern keine oder nicht vollständige Quellenangaben, da sie ihre Texte auf Grundlage von Mustern und Informationen erstellen, die sie während des Trainings gelernt haben. Hinzu kommt, dass die Institution oder das Unternehmen, die das KI-Modell trainiert, ihre genauen Trainingsdaten meist unter Verschluss hält. Daraus ergibt sich die folgende Herausforderung.

Fehlende Quellenangaben

Grundsätzlich liegt es in der Verantwortung der Nutzer, die Qualität und Richtigkeit der generierten Antworten zu beurteilen. Jedoch sind Unternehmen wie auch Privatpersonen, durch unvollständige Quellenangaben und unbekannte Trainingsdaten oft gar nicht in der Lage, die generierten Antworten mit überschaubarem Zeitaufwand ausreichend zu überprüfen und zu validieren.

Datenschutz

Zudem ist nicht bekannt, was mit jenen Informationen geschieht, die Nutzer bei einer Frage oder bei Befehlen in frei verfügbare KI-Tools eingegeben. Werden diese von der Betreiberfirma der generativen KI gespeichert? Werden die Informationen ausgewertet? Wenn ja, wie? Oder werden die Daten gar an Dritte weitergegeben? Gerade bei sensiblen Themen ist es für Unternehmen wichtig zu wissen, wer Einblick in die Suchanfragen seiner Mitarbeiter hat und was genau mit diesen Daten passiert.

Plagiate und Urheberrechtsverletzungen

Falls das KI-Tool auf bereits vorhandene Texte zurückgreift und Mitarbeiter Vorschläge einfach übernehmen, kann die Nutzung von generativer KI zur Texterstellung zu unbeabsichtigten Plagiaten führen. Nicht zu unterschätzen sind dabei mögliche Urheberrechtsverletzungen – vor allem dann, wenn die Antworten der KI-Modelle auf geschützten Werken basieren.

Außerdem ist nicht vollständig geklärt, wem eigentlich die generierten Texte gehören. Sind sie das geistige Eigentum der Fragesteller, der Betreiberfirma der KI, oder jener Textautoren, von denen die KI ihre Antworten ableitet?

Es scheint, als machten Herausforderungen wie Datenhalluzination, fehlende Quellenangaben, Datenschutz und die Graubereiche bei den Intellectual Property Rights es Unternehmen kaum möglich, Technologien wie ChatGPT Compliance-konform zu nutzen.

Alternative Insight Engines

Es gibt eine Compliance-konforme Alternative zu öffentlich-zugänglichen generativen KI-Modellen: der Einsatz sogenannter Insight Engines kombiniert mit Large Language Models (LLM).

Bei Insight Engines handelt es sich um intelligente Wissensmanagementlösungen, die mittels Konnektoren Daten aus bekannten Quellen verknüpfen und auswerten, unabhängig davon, ob diese sich auf internen oder externen Servern oder in einer Cloud befinden. Das Unternehmen entscheidet selbst, welche Daten es anbindet und welche nicht. Auf diese Weise entsteht eine aktuelle und validierte Single Source of Truth, die jederzeit anpassbar ist.

Zusätzlich sind diese Lösungen in der Lage, auf frei zugängliche Informationen im Internet zurückgreifen. Im Gegensatz zu öffentlich trainierten KI-Modellen geben Insight Engines aber die Quellen, aus denen die Antworten generiert werden, an. Die ausgegebenen Texte sind so stets für die Mitarbeiter nachvollziehbar, auch wenn dabei auf öffentlich zugängliche Informationen zurückgegriffen wird. Durch ein integriertes LLM wie GPT von OpenAI können Anwender:innen einen Dialog in natürlicher Sprache mit der intelligenten Wissensmanagementlösung führen. Neben GPT gibt es auch weitere LLMs, die mit einer Insight Engine kombinierbar sind.

Jederzeit Kontrolle über die eigenen Daten

Beim Einsatz einer Insight Engine fließen zu keinem Zeitpunkt Informationen in ein externes Tool. Unternehmen haben jederzeit die Kontrolle über ihre Daten und müssen so nicht fürchten, dass externe Anbieter die Suchanfragen und Befehle ihrer Mitarbeiter:innen oder gar Betriebsgeheimnisse speichern und verarbeiten.

Lesen Sie auch : KI auf dem Prüfstand

Außerdem sind die Eigentumsrechte der ausgegebenen Antworten geklärt: Diese liegen bei jenem Unternehmen, das die Insight Engine einsetzt.

Vertrauliche Inhalte sind auch innerhalb eines Betriebes beziehungsweise dessen Abteilungen geschützt, denn nutzerabhängige Zugriffsrechte ermöglichen Usern nur jene Inhalte zu sehen, die sie gemäß ihrer Rolle in der Organisation auch sehen dürfen.

Insight Engines bieten Unternehmen noch einen weiteren großen Vorteil, den eine öffentlich trainierte KI nicht bieten kann: Diese intelligenten Wissensmanagement-Lösungen liefern Nutzern nicht nur rasch Antworten auf spezifische Fragen, sie erleichtern auch die Zusammenarbeit innerhalb von Teams und stellen eine zentrale Plattform für den Austausch von Erkenntnissen und Daten, etwa für Forschungsergebnisse, bereit. Mitarbeiter haben so einen leichteren Zugang zu Informationen aus strukturierten und unstrukturierten Datenquellen. Vor allem für Teams im Bereich Forschung und Entwicklung ist die Nutzung einer solchen Lösung eine große Chance, um Projekte schneller abzuwickeln und Innovationen voranzutreiben.  

 

Gerald Martinetz

ist Head of Presales bei Mindbreeze.