Nils Schwenzfeier: Ja, es ist tatsächlich das erste Mal, dass ein KI-Thema so stark präsent ist und fast jeder davon gehört hat. Was Generative AI und Large-Language-Modelle von anderen Technologien unterscheidet, ist die direkte Interaktion mit den Anwendern. Es ist kein abstraktes Konzept wie Blockchain oder etwas, das unsichtbar bleibt wie Cloud-Technologien. Die breite Masse kommt im wahrsten Sinne des Wortes direkt mit dem System in Berührung. Es ist erstaunlich: Leute, die vorher wenig oder gar nichts mit Informatik und künstlicher Intelligenz zu tun hatten, werden jetzt zu Prompt Engineers. Die Einstiegshürden sind niedrig, die Ergebnisse verblüffend und die Fantasie groß. Diese Kombination sorgt für eine ungebrochene Euphorie.
Volker Gruhn: Es gibt derzeit kaum ein Gespräch mit Unternehmensverantwortlichen, das nicht irgendwann an den Punkt kommt: “Was können wir damit machen? Die Neugier ist enorm. Auch hier spielt der einfache Einstieg eine große Rolle: Um erste Erfahrungen zu sammeln, braucht es kein aufwendiges Softwareprojekt, keine großen Investitionen oder ähnliches. Wenn die Compliance mitspielt, reichen ein Browser und ein paar Euro im Monat. Doch das anfängliche Herumexperimentieren weicht mehr und mehr einem planvollen Einsatz: Datenbasis schaffen, Anwendungsfälle finden, generative KI-Lösungen in bestehende IT-Prozesse integrieren, Mitarbeitende schulen: Das sind die Aufgaben, vor denen Unternehmen jetzt stehen.
Und dann sind der Fantasie kaum noch Grenzen gesetzt: Die Sachbearbeitung einer Versicherung profitiert ebenso vom Potenzial der Technologie wie die Softwareentwicklung oder das Marketingteam. Use Cases gibt es wie Sand am Meer. Die Kunst besteht darin, die mit dem größten Hebel zu finden. Das wird eine der Herausforderungen für die Unternehmen sein.
Volker Gruhn: Rechts und links von OpenAI und Microsoft ist der Markt in Bewegung. Die Entwicklung ist so rasant, dass der Schnappschuss von heute morgen schon überholt sein kann. Auf der einen Seite stehen die großen Unternehmen wie Google oder Amazon, die derzeit massiv in LLM-Technologien investieren. Oder Meta, die mit ihrem Modell Llama einen Open-Source-Weg gehen. In Europa ruhen die Hoffnungen auf Firmen wie Mistral aus Frankreich oder Aleph Alpha. Beide arbeiten mit unterschiedlichen Ansätzen an einem eigenen LLM. Beide haben den Vorteil, dass ihnen das europäische Verständnis von Rechtsnormen und Datenschutz quasi in die Wiege gelegt wurde. Darüber hinaus gibt es hochspezialisierte Anbieter, die sich auf Anwendungen in Kernprozessen von Unternehmen spezialisieren, wie unser Universitäts-Spinoff TamedAI.
Nils Schwenzfeier: Neben den etablierten Technologieschwergewichten oder den mit Milliarden Dollar ausgestatteten Start-ups entwickelt sich eine spannende Szene spezialisierter GenAI-Angebote. Deren Ziel ist es nicht, dass ihre Lösung sowohl die Glückwunschkarte zum 80. Geburtstag als auch den Code für das neue CRM schreiben kann. Vielmehr werden Modelle maßgeschneidert für spezialisierte Anwendungsfälle. Das sorgt für eine höhere Qualität bei den Ergebnissen und zugleich für eine kosteneffizientere Entwicklung und einen einfacheren Betrieb – sogar on-premise.
Innerhalb der TamedAI konzentrieren wir uns beispielsweise auf das Thema Informationsextraktion aus Texten und Dokumenten. Das geht von der Verarbeitung des Scans einer postalisch zugestellten Rechnung bis hin zur automatischen Verarbeitung von E-Mails. Die Fokussierung bringt dabei insbesondere Vorteile in der präzisen Erkennung sowie im Kampf gegen Halluzinationen der Modelle. Andere Angebote konzentrieren sich auf ähnlich konkrete Anwendungsfälle. Ein Paradebeispiel ist das Unternehmen DeepL, das einen neuen Standard im Bereich der Übersetzung und Transkription von Texten gesetzt hat. Insgesamt wird die LLM-Welt deutlich vielfältiger.
Volker Gruhn: Der Markt für große Modelle mit allgemeinen Anwendungsfällen wird sich konsolidieren. Das kann man sehr gut an der Veröffentlichung von GPT-4 sehen. Die letzte Version war so leistungsfähig, die Qualität der Ergebnisse so gut, dass plötzlich viele andere Modelle deutlich zurückgefallen sind. Sie können nicht mehr mithalten, weil sie zum Beispiel nicht über die Datenbasis verfügen, die OpenAI mit großem Aufwand aufgebaut hat und weiter pflegt. Meiner Meinung nach werden wir eine Handvoll großer Anbieter sehen, die umfassende Lösungen vom Kaliber eines ChatGPT anbieten. In ihrem Windschatten werden sich, insbesondere im B2B-Bereich, viele der oben beschriebenen Speziallösungen etablieren.
Volker Gruhn: OpenAI hat zweifellos einen Startvorteil. Bereits die erste Version, die im November 2022 der Öffentlichkeit zugänglich gemacht wurde, hat die Nutzerinnen und Nutzer überzeugt. Das hat zum Beispiel eine Umfrage ergeben, die wir Ende 2023 unter Führungskräften in Deutschland durchgeführt haben. Da hat jemand aus dem Stand eine überzeugende Lösung auf den Markt gebracht.
Und das Management hat bisher ein gutes Händchen bei der Weiterentwicklung des Produkts bewiesen. Die Qualitätssteigerung von Version 3,5 auf 4 ist spürbar. Der GPT-Store wirkt noch etwas anarchisch, zeigt aber, wohin die Entwicklung geht. Open API kann mit dieser Plattform eine ähnliche Erfolgsgeschichte schreiben wie Apple oder Google mit ihren jeweiligen App Stores. Hinzu kommt die enge Zusammenarbeit mit Microsoft und die Integration in die Office-Welt. All dies spielt dem Unternehmen in die Hände. Auf der anderen Seite hat die kurzlebige Posse um die Abberufung von Sam Altman gezeigt, wie schnell eine solche Entwicklung auch kippen kann. Ob wir in fünf Jahren immer noch an ChatGPT denken, wenn wir von GenAI sprechen, ist noch nicht ausgemacht.
Volker Gruhn: Der Wendepunkt zeichnete sich mit dem Übergang von GPT-2 zu GPT-3 ab – ein Sprung auf gigantische 180 Milliarden Parameter. GPT-3 stellte alles bisher Dagewesene in den Schatten, doch der erste Eindruck täuschte: Größer ist nicht unbedingt besser. Diese Erkenntnis war zunächst nur eine Hypothese, die auf der schieren Größe der Modelle beruhte. Es wurde spekuliert: Was, wenn wir die Messlatte noch höher legen, auf 500 Milliarden Parameter? Doch schnell zeigte sich, dass nicht allein die Größe den Fortschritt definiert, sondern das Zusammenspiel von verfeinertem Trainingsmaterial, Trainingsprozeduren und optimierten Modellstrukturen. Inzwischen wissen wir, dass auch Modelle mit einstelliger Milliardenzahl an Parametern ähnlich leistungsfähig sein können wie GPT-3. Es geht also nicht nur um die Quantität der Parameter, sondern auch um die Qualität des Trainings, der zugrundeliegenden Daten und der architektonischen Raffinesse.
Volker Gruhn: Die Annahme, dass Deutschland bei KI und Digitalisierung völlig abgehängt ist, halte ich für übertrieben. Bei den großen Sprachmodellen mag die Musik bis auf wenige Ausnahmen in den USA spielen. Aber unsere etablierten Branchen, von Versicherungen über Banken bis hin zum Maschinenbau, hinken bei der Anwendung von KI keineswegs hinterher. Unzählige Projekte laufen, um Produkte und Prozesse mit intelligenten Technologien zu verbessern. Wenn der Gesetzgeber mit Augenmaß reguliert – und Regulierung ist notwendig – wird unser Standort zu den Gewinnern der Entwicklung gehören.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…