Künstliche Intelligenz: Größer ist nicht gleich besser

Echten Wettbewerbsvorteil versprechen weniger die bekannten Sprachmodelle, sondern auf Branchen und Anforderungen zugeschnittene Lösungen, sagt Jan Wildeboer von Red Hat.

Ein Anfang 2023 veröffentlichter IDC-Report schätzt, dass die weltweiten Ausgaben für KI bis 2026 auf 301 Milliarden US-Dollar steigen werden, was einer Verdoppelung der aktuellen Investitionen entspricht. Von der Mitarbeiterproduktivität über die Kundenzufriedenheit bis hin zur Risikominimierung werden alle Bereiche davon profitieren, so der Tenor. Da sie den Hype nicht ignorieren können, stürzen sich viele Mitarbeitende kopfüber in den Kampf und versuchen, sich als KI-Pioniere mit neuen Ansätzen einen Wettbewerbsvorteil zu verschaffen – und setzen ihre Unternehmen ungewollt Risiken aus.

Eine Frage der Kontrolle

Es ist eine weit verbreitete Annahme, dass der Wert von Daten mit ihrer Menge steigt. Aber das stimmt nicht immer. Je mehr Datensätze zur Verfügung stehen, desto schwieriger wird es, ihre Herkunft und Richtigkeit zu kontrollieren – ganz zu schweigen von möglichen Urheberrechtsverletzungen, die eine KI versehentlich begehen könnte. Ein Beispiel dafür ist die KI der Stunde: ChatGPT. Auf der Website von OpenAI wird darauf hingewiesen, dass die KI “möglicherweise ungenaue Informationen liefert”, wofür es auch zahlreiche Belege gibt. Die Problematik stellt sich dabei weniger für Nutzer, die einen Biskuitkuchen backen wollen, sondern vielmehr bei weitreichenden Anwendungsfällen wie der Recherche im Bereich Recht und Strafverteidigung.

Übertragen wir dieses Risiko nun auf die Geschäftswelt. KI-Tools können automatisiert Lagerbestände verwalten, Gehälter an die Leistung anpassen, den vierteljährlichen Cashflow prognostizieren oder den Devisenhandel optimieren. Dabei treffen sie grundlegende Entscheidungen, die sich tiefgreifend auf die Rentabilität des Unternehmens auswirken. Mit einer ausgereiften Data-Governance- und KI-Strategie lässt sich dies leicht überwachen – jedenfalls bis zu dem Punkt, an dem die Mitarbeitenden anfangen, ihre eigenen KI-Tools zu nutzen. Unternehmen können nicht kontrollieren, was sie nicht kennen. Das Problem ist also ein zweifaches: Wie stellen sie die Integrität der bekannten KI-Tools sicher und wie verhindern sie, dass Mitarbeitende unautorisierte und ungeprüfte KI-Tools zur Unterstützung ihrer Arbeit einsetzen?

Die Antwort ist eher konzeptionell als konkret. Die Zukunft der KI wird nicht in den großen Sprachmodellen (Large Language Models, LLMs) liegen, die heute die Schlagzeilen beherrschen, oder in anderen generischen Lösungen, die für eine große Zahl von Nutzerinnen und Nutzern gedacht sind. Vielmehr werden Unternehmen Fähigkeiten benötigen, die auf ihre Branche, ihre Kunden und ihre Aufgaben zugeschnitten sind.

Bessere und relevantere Daten

Die neue Ära domänenspezifischer KI-Tools wird sich durch die Fähigkeit auszeichnen, einzigartige und spezialisierte Dienste zu erbringen. Dafür sind grundlegende Modelle erforderlich, die mit privaten Daten trainiert und an die Standards und Praktiken eines bestimmten Unternehmens oder einer bestimmten Branche angepasst werden. Mit gut organisierten, relevanten und geprüften Daten gefüttert, liefern diese Lösungen genau die Ergebnisse, die den Nutzern das Gefühl geben, mit Experten zusammenzuarbeiten. Experten, denen man vertrauen kann, weil sichergestellt ist, dass die Datensätze nicht willkürlich aus unterschiedlichen Quellen zusammengemischt und erstellt wurden. Die so generierten Ergebnisse sind relevant und effektiv. Als Konsequenz werden Mitarbeitende nicht das Bedürfnis haben, sich nach eigenen Lösungen umzusehen. Noch besser ist es, wenn sie in das Projekt einbezogen werden und ein Gefühl der Verantwortung und Loyalität entwickeln.

Wer sich intensiv mit KI beschäftigt, weiß, dass die wirklich interessanten Innovationen sich bereits jetzt auf diesem Gebiet abspielen. Hier entstehen die Toolkits für domänenspezifische KI und sie übertreffen bereits die Innovationskraft der großen KI-Unternehmen. Weniger ist manchmal mehr, wie es so schön heißt. Aber nur, wenn diese Entwicklungen mit Transparenz und Integrität einhergehen. Damit fällt die KI-Entwicklung fest in den Aufgabenbereich der Rechts- und Compliance-Teams. Ihre Zusammenarbeit mit Data Scientists und DevOps-Kollegen wird zu einem wichtigen Bestandteil einer effektiven KI-Strategie. Sie müssen die Richtlinien dafür erstellen und aufzeigen, wie und wann KI eingesetzt wird. Dabei sollten sie die gleichen Fragen über die Herkunft ihrer Daten stellen, die wahrscheinlich auch von den Aufsichtsbehörden geprüft werden.

Chancen und Risiken von KI-Investitionen bewerten 

Auf der ganzen Welt lassen die Rechtsprechungen ihre Muskeln spielen, wie das KI-Gesetz der EU, die AI Bill of Rights der USA, das KI-Regulierungspapier des Vereinigten Königreichs und die Durchsetzung der chinesischen Vorschriften zum Umgang mit algorithmischen Empfehlungen zeigen. Unwissenheit war schon immer eine schwache Verteidigung, selbst wenn die Schuld einem Anbieter zugeschoben werden konnte. Wenn eine KI mit den Daten eines Unternehmens entwickelt wurde, gibt es keine Ausrede mehr.

Vorsicht ist jedoch vor dem Mitläufereffekt geboten. Durch die Abkehr von der allgemeinen KI und die Hinwendung zu bereichsspezifischen Lösungen verfügen Unternehmen über weitaus effizientere Fähigkeiten und (wenn sie es richtig anstellen) über besser ausgebildete und regelkonform arbeitende Angestellte. Diese Entscheidung erfordert eine starke Führung. Das große Medienecho hat zwar eine gewisse Dringlichkeit für den Einsatz von KI-Tools geschaffen, dennoch gilt zu beachten: Der vernünftige Ansatz besteht darin, innezuhalten, zu bewerten und sicherzustellen, dass die KI-Investitionen, die Unternehmen in Systeme, Mitarbeitende und Kultur tätigen, sowohl die Chancen als auch die Risiken berücksichtigen.

Jan Wildeboer

ist EMEA Open Source Evangelist bei Red Hat.

 

 

 

Lesen Sie auch : KI auf dem Prüfstand