Categories: GastbeitragKI

Generative KI kann Branchen grundlegend verändern

Die ultimative Lösung mit nur einer Frage? Mit der Einführung des auf maschinellem Lernen, dem Deep Learning basierenden ChatGPT im November 2022 sind Large Language Models (LLMs) und generative Künstliche Intelligenz (KI) weltweit Gesprächsthema. Der von OpenAI entwickelte KI-Chatbot wird in privaten Kreisen, in Schulen bis hin zu Vorstandsetagen fast leidenschaftlich diskutiert. Nicht immer inhaltlich allumfassend, dennoch kommt das Thema KI in der gesellschaftlichen Mitte an.

GPT steckt noch in Kinderschuhen

Ist es aber tatsächlich so einfach, wie es mancherorten diskutiert wird? Für Unternehmen ist die klare Antwort – jain. Generative Pre-Trained Transformer Technologie (GPT) steckt noch in den Kinderschuhen, doch sie hat das Potenzial, Branchen grundlegend zu verändern. Sei es die Verbesserung des Kundendienstes oder die Steigerung der Mitarbeiterproduktivität – zusammen mit LLM-basierten KI-Systemen, kann diese Technologie Unternehmen große Möglichkeiten eröffnen. Will man sie ausschöpfen, muss man tiefer in die Mechanismen und KI-Verfahren einsteigen.

Es empfiehlt sich, den unternehmerischen Nutzen von ChatGPT und anderen generativen KI-Technologien durch die Integration von kausaler KI oder anderen Methoden zur Erweiterung des Kontexts zu steigern. Besonders in der Softwareentwicklung und -bereitstellung wird dies deutlich. Hier ist ein ungeahnter Boost Produktivitätssteigerung möglich. Auf dem Weg dorthin, gibt es jedoch einige Dinge im Blick zu behalten.

Produktiver mit ChatGPT und generative KI?

Softwareentwicklung und -bereitstellung sind in puncto GPT-Technologie ein Schlüsselbereich. Zahlreiche zeitraubende manuelle Prozesse, ließen sich so deutlich besser strukturieren. Nachdem generative KI auf natürlich-sprachlicher Vorgabe Codestücke für Software programmieren kann, indem sie auf gelernte Informationen aus öffentlichem Source Code zurückgreift, wäre es denkbar diese Fähigkeit auch auf DevOps- und Plattform-Engineering-Teams zum Schreiben von routinemäßigem Aufgaben zu erweitern. So können Teams schneller neue Softwareservices ausrollen, Automatisierungen erstellen und Hilfestellungen zur Analyse erhalten.

Dazu wäre es nötig den IT-Kontext in die Anfrage an das GPT einzubetten, um spezifische Antworten zu erhalten. Auf diesem Wege könnten so sogar Tickets und Fehlermeldungen automatisch mit generierten möglichen Maßnahmen zur Abhilfe ergänzt werden. Was bringt das im Endeffekt? Unzählige Stack-Overflow-Seiten müssen nicht mehr wie herkömmlich mühselig auf der Suche nach einer Problemlösung durchforstet werden, Mitarbeiter können schneller neue Technologien einsetzen, die Produktivität steigt.

GPTs können auch dazu beitragen, Teammitglieder schnell in neue Entwicklungsplattformen und Toolsets einzuführen. Bislang durchsuchen Benutzer Dokumentationen manuell und die Geduld, die richtigen Antworten in der Vielfalt von Technologien zu finden, ist schnell aufgebraucht. Da hilft die automatische Suche und Zusammenfassung benötigter Information auf Basis von IT-Kontext und Dokumentation über GPTs erheblich. Über Fragen in der Suchleiste, präsentieren sie mögliche Lösungen. Zum Beispiel: “Wie automatisiere ich die Orchestrierung von meiner Cloud-Anwendung auf Basis von Laufzeitdaten?” oder “Wie kann ich diese Lösung am besten in meine Toolchain integrieren?”

Sich der Risiken bewusst sein

Die rein LLM-basierte generative KI, die ChatGPT und ähnliche Technologien antreibt, ist nicht unfehlbar, sondern prinzipiell probabilistisch und anfällig für Irrtümer und Manipulationen. Dessen müssen sich Unternehmen bewusst sein. Sie verlässt sich auf die Genauigkeit und Qualität der öffentlich zugänglichen Informationen und Eingaben, die sie erhält. Und somit ist Vorsicht geboten, denn diese können auch nicht vertrauenswürdig oder voreingenommen sein.

In Sachen Softwareentwicklung und -bereitstellung können diese Quellen Codebibliotheken umfassen, die rechtlich geschützt sind oder Syntaxfehler beziehungsweise Schwachstellen enthalten, die Cyberkriminelle bewusst eingeschleust haben. Entwicklungsteams müssen daher den Code, den sie von GPTs erhalten, unbedingt und immer überprüfen. Nur so sind Zuverlässigkeit, Leistung, Konformität oder Sicherheit der Software garantiert.

Ohne Kontrollmechanismen geht es nicht

Wenn DevOps- und Plattform-Engineering-Teams GPTs einsetzen, um die Softwareentwicklung zu beschleunigen, müssen Engineering– und Datenschutzteams dafür sorgen, dass diese Technologien über die richtigen Kontrollmechanismen verfügen. Sonst verursachen die Chatbots mehr Probleme als sie lösen sollen.

Lesen Sie auch : KI auf dem Prüfstand

Engineering Teams müssen sicherstellen, dass die Rechte am geistigen Eigentum (IP) an jeglichem Code anerkannt werden, der von und mit GPTs und anderer generativer KI geteilt wird. Das schließt urheberrechtlich oder markenrechtlich geschützte sowie patentierte Inhalte ein. Ebenso wichtig ist es für Unternehmen, zu verhindern, dass ChatGPT und Co. versehentlich ihre eigenen geistigen Eigentümer oder vertrauliche Daten weitergeben. Denn sie nutzen zunehmend Coding-Assistenten für ihre Softwareentwicklung und diese könnten den geschützten Source Code in ihre Trainingsdatenbasis mit aufnehmen und ungewollt veröffentlichen.

Schließlich müssen auch regionale und länderspezifische Datenschutz- und Sicherheitsvorschriften wie die DSGVO oder das vorgeschlagene europäische KI-Gesetz berücksichtigt werden. Nur so können Unternehmen sicherstellen, dass ihre Teams GPT-Technologien nicht in einer Weise nutzen, die unbeabsichtigt zu Datenschutzverletzungen und möglichen Geldstrafen führt.

Die Schlagkraft kausaler KI

Während Entwickler ihren Code und ihre Kommentare als Input für GPT-Tools bereitstellen, wollen DevOps-, SRE- und Plattform-Engineering-Teams ihre IT-Konfiguration und ihre Laufzeitzustand als Kontext in die Fragestellung an GPT-Tools mit einbringen. Denn je detaillierter die Frage an GPT Tools ist, desto größer ist die Wahrscheinlichkeit eine hilfreiche Antwort zu erhalten. Die richtigen Fragen zu stellen, die dann sinnvolle Antworten liefern, nennt man Prompt-Engineering. Um nicht seitenweise Informationen in den Chat tippen zu müssen, möchte man möglichst viel Kontext zur Fragestellung automatisch erstellen.

Ein Beispiel: Erhalten GPT-Tools eine sehr allgemein gehaltene Anfrage über die Ursache einer CPU-Spitze, werden sie nur wenig hilfreiche, allgemeine Antworten ausspucken. Etwa der Hinweis, dass die Ursache von verschiedenen Faktoren abhängt und zusätzliche CPUs oder Skalierung helfen würden. Wenn die GPT-Tools jedoch die genaue Ursache, sprich die Root-Cause, mit Kontext hinter einer CPU-Spitze haben und somit die Zusammenhänge und Abhängigkeiten in vernetzten digitalen Softwaresystemen mit dem Prompt Engineering erhalten, können sie zielgerichtete Vorschläge generieren. Um die Root-Cause und den Kontext zu ermitteln, ist eine andere Art künstlicher Intelligenz erforderlich: kausale KI. Sie kann die Schlagkraft von generativer KI deutlich stärken.

Kausale KI ermittelt in nahezu Echtzeit präzise Erkenntnisse aus kontinuierlich beobachteten Beziehungen und Abhängigkeiten innerhalb eines Technologie-Ökosystems und über den Software-Lebenszyklus. Diese Abhängigkeitsgraphen oder Topologien ermöglichen es der kausalen KI, präzise, faktenbasierte, erklärbare, reproduzierbare Antworten zu generieren. Diese Antworten beschreiben detailliert die Ursache, die Art und den Schweregrad jedes entdeckten Problems. Durch die Kombination von kausaler KI mit GPTs können Teams Analysen automatisieren, die die Auswirkungen ihres Codes, ihrer Anwendungen und der zugrundeliegenden Infrastruktur untersuchen und dabei den gesamten Kontext offenlegen.

Generative KI mit kausaler KI zusammenführen

Die Auswirkungen der GPT-Technologie werden zweifellos tiefgreifend sein und die Arbeitsweise vieler von uns dramatisch beeinflussen. Dennoch sollten man im Hinterkopf behalten: ChatGPT und ähnliche Technologien können alleinstehend nicht auf die Eigenheiten und Bedürfnisse von Unternehmen und ihrer IT eingehen. Die Maxime „Garbage in, garbage out“ bewahrheitet sich hier nur allzu gerne. Vorschläge sind nur so gut wie die Qualität, Tiefe und Präzision der Informationen und des Kontexts, mit denen die GPTs gefüttert werden.

Unternehmen können den Output der generativen KI besser nutzen, wenn sie diese mit kausaler KI zusammenführen. Das stellt sicher, dass sie keine generischen oder erfundenen Antworten erhalten. Dieser kombinierte Ansatz liefert zuverlässige Antworten für zwei wichtige Zwecke: Zum einen lässt sich so mittels kausaler KI eine robuste Automatisierung erreichen. Zum anderen kann kausale KI einen tiefgreifenden Kontext liefern, um das volle Potenzial von GPT für die Softwarebereitstellung und bei Produktivitätsanwendungen freizusetzen. Wenn Entwicklungsteams auf diesem Weg vorankommen, können Unternehmen einen dauerhaften Wettbewerbsvorteil für sich verbuchen. Dann ebnen generative KI und kausale KI den Weg für einen Boost an Produktivität.

Nächste Phase der GPT-gestützten Innovation

In naher Zukunft könnte die Kombination aus generativer und kausaler KI noch leistungsfähiger werden. Durch die Integration von GPTs in einheitliche Observability- und Sicherheitsplattformen lassen sich etwa sprachliche Abfragen mit kausalen KI-gestützten Antworten kombinieren. Das liefert einen genauen und klaren Kontext. Das detaillierte Prompt-Engineering macht die Vorschläge der GPTs anwendbarer für Problembehebung und Automatisierung.

Die Kombination von kausaler KI und generativer KI wird die nächste Phase der GPT-gestützten Innovation einleiten. Generative KI ist eine transformative Technologie mit scheinbar grenzenlosen Möglichkeiten zur Produktivitätssteigerung. Doch wenn Unternehmen dieses Potenzial ausschöpfen wollen, ist der Schlüssel zum Erfolg eine hypermodale KI, die generative KI mit leistungsstarken prädiktiven und kausalen KI-Techniken kombiniert. Denn nur prädiktive KI kann zuverlässig in die Zukunft blicken, nur kausale KI kann die Ursache eines Problems deterministisch erkennen und nur generative KI kann mit fortschrittlichen probabilistischen Algorithmen Empfehlungen und Lösungen auf spezifische Probleme zuschneiden.

Bernd Greifeneder

ist CTO und Gründer von Dynatrace.

Roger Homrich

Recent Posts

Mehr Datenschutz in der Montage

Assistenzsysteme unterstützen Monteure bei der Arbeit. Zu oft zahlt man jedoch mit den eigenen Daten…

2 Tagen ago

Cyber Resilience Act: Countdown läuft

Hersteller werden stärker in die Pflicht genommen, den gesamten Lebenszyklus ihrer Produkte in den Blick…

2 Tagen ago

KI auf dem Prüfstand

LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…

3 Tagen ago

Rechenzentren: Deutschland verliert Anschluss

Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…

3 Tagen ago

KI steigert Nachfrage nach hybriden Workplace-Umgebungen

Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…

3 Tagen ago

Hagebau erreicht E-Mail-Sicherheit mit der NoSpamProxy Cloud

Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…

4 Tagen ago