Categories: KI

Microsoft übernimmt OpenAIs Plug-in-Standard für ChatGPT

Microsoft hat auf seiner jährlichen Entwicklerkonferenz Build 2023 angekündigt, den von OpenAI vorgestellten Standard für Plug-ins für ChatGPT zu unterstützen. Entwickler erhalten so die Möglichkeit, Plug-ins zu erstellen, die auch auf die Struktur von Bing Chat zugreifen können.

“Bei einem Plug-in geht es darum, wie Sie, der Copilot-Entwickler, Ihrem Copiloten oder einem KI-System die Möglichkeit geben, über Fähigkeiten zu verfügen, die es im Moment noch nicht hat, und es mit Daten und Systemen zu verbinden, die Sie erstellen”, sagte Kevin Scott, Chief Technology Officer von Microsoft. “Ich glaube, es wird irgendwann ein unglaublich reichhaltiges Ökosystem von Plug-ins geben.

Neue Plug-ins für Klarna und Instacart

Zusätzlich zu den bereits angekündigten Plug-ins für OpenTable und Wolfram Alpha unterstützt Bing nun auch Plug-ins von Zillow, Klarna, Instacart, Kayak, Redfin und weiteren Anbietern. Die Integration gibt Nutzern direkt von Bing Chat aus Zugriff auf die fraglichen Dienste.

Mit der Unterstützung des Plug-in-Standards von OpenAI garantiert Microsoft zudem eine Interoperabilität zwischen ChatGPT und Microsofts hauseigenen Copilot-Programmen. Dazu gehören Dynamics 365 Copilot, Microsoft 365 Copilot und Windows Copilot. Darüber hinaus kündigte Microsoft an, die Copilot-Programme auszuweiten. So stehen ab sofort Vorabversionen von Copilot für Power BI und Copilot für Power Pages zur Verfügung. In Kürze soll auch eine Vorschau von Windows Copilot und Copilot für Microsoft Fabric starten.

“Wenn man sich Bing Chat anschaut, denkt man vielleicht, dass das eine super magische, komplizierte Sache ist, aber Microsoft gibt Entwicklern alles, was sie brauchen, um einen eigenen Copiloten zu entwickeln”, ergänzte Scott. “Ich denke, dass dies in den nächsten Jahren zu einer Erwartungshaltung für die Funktionsweise aller Software werden wird.”

Scott geht davon aus, dass nicht Microsoft, sondern unabhängige Entwickler künftige für die meisten neuen Copilots verantwortlich sein werden. Als Beispiel nannte er einen Copilot, der mit einem Large Language Model trainiert wurde und Zugang zu Geschäftdaten und Backend-Systeme hat. Das würde es dem Copilot erlauben, auf Anfragen von Mitarbeitern zu spezifischem Unternehmenswissen zu antworten.

“Der Punkt, an dem wir heute sind, ist einfach fantastisch. Man kann ein großes Sprachmodell wie GPT-4 nehmen und damit anfangen, Anwendungen zu erstellen”, so Scott weiter. “Wir haben diese neue Anwendungsplattform namens Copilot geschaffen.”

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die Redaktionen von Silicon.de und ZDNet.de. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

1 Tag ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago