OpenAI kündigt GPTs an

ChatGPT-Nutzer können ihre eigenen Bots bauen

07.11.2023 von Heinrich Vaske
ChatGPT-Erfinder OpenAI hat auf seiner ersten Entwicklerkonferenz eine Reihe von News und Upgrades bekannt gegeben. Künftig kann sich jeder seinen eigenen Chatbot bauen und diesen teilen.
Jede Menge Neuigkeiten hatte Sam Altman, CEO von OpenAI, den KI-begeisterten Entwicklern auf dem ersten DevDay seines Unternehmens zu verkünden.
Foto: YouTube

Mit dem neuen Service GPTs können Privatpersonen und kleine Betriebe individuell zugeschnittene Versionen von ChatGPT für ganz bestimmte Aufgaben bauen und diese auch direkt im Internet teilen. Sie brauchen dazu laut OpenAI keine Zusatzanwendung und keinen Extra-Code.

Beispielsweise können Hotelbesitzer einen Chatbot kreieren, der Fragen zu ihren Services oder zur näheren Umgebung beantwortet. Dazu haben sie auch die Möglichkeit, Dokumente hochzuladen, um den Bot zielgenau zu trainieren. Denkbar sind auch Chatbots, mit denen sich bestimmte Sprachen erlernen lassen oder auch Tipps zu Innereinrichtungen von Räumen - was etwa für Architekturbüros oder Möbelhäuser interessant sein könnte.

GPTs ist für Abonnenten der zahlungspflichtigen Abo-Version "ChatGPT Plus" verfügbar (20 Dollar pro Monat und User). OpenAI weist wie immer darauf hin, dass auch solche individualisierten Bots Fehler produzieren und halluzinieren können, da sie immer noch auf die enormen Mengen der im Internet frei verfügbaren Daten trainiert seien. Da die Technologie auch dazu genutzt werden könne, beleidigenden, irreführenden oder sogar gefährlichen Output zu liefern, will der Anbieter alle neuen Bots, die mit GPTs generiert wurden, überprüfen und gegebenenfalls solche, die gegen Nutzungsbedingungen verstoßen, sperren. Zudem will OpenAI einen AppStore eröffnen, wo Unternehmen individuell generierte und geprüfte Bots beziehen können.

Neues Modell GPT-4 Turbo angekündigt

OpenAI zeigte ebenfalls eine Preview des neuen Modells GPT-4 Turbo, das besonders leistungsfähig sein und ein Kontextfenster mit 128.000 Token unterstützen soll. Damit wären mehr als 300 DIN-A-4-Seiten Text in einer einzigen Eingabeaufforderung möglich. Die Internet-basierten Trainingsdaten sollen dabei bis zum April 2023 reichen, neuere Daten werden nicht unterstützt. OpenAI hat die Leistung so optimiert, dass GPT-4 Turbo im Vergleich zu GPT-4 einen dreimal günstigeren Preis für Input- und einen halb so hohen Preis für Output-Token anbieten kann.

GPT-4 Turbo akzeptiert Bilder als Eingaben in der Chat-Completions-API, was Anwendungsfälle wie das Generieren von Beschriftungen, die detaillierte Analyse von Bildern aus der realen Welt und das Lesen von Dokumenten, die Zahlen enthalten, ermöglicht. Der Anbieter BeMyEye nutzt diese Technologie beispielsweise dazu, blinden oder sehbehinderten Menschen bei alltäglichen Aufgaben wie dem Identifizieren von Produkten oder Navigation im Supermarkt zu helfen.

Entwickler können auf diese Funktion zugreifen, indem sie "gpt-4-vision-preview" in der API verwenden. OpenAI plant, die Unterstützung der Sehkraft auch im Hauptmodell von GPT-4 Turbo zu unterstützen. Die Preisgestaltung soll von der Größe des Eingabebildes abhängen. Zum Beispiel kostet die Übergabe eines Bildes mit 1080 × 1080 Pixeln an GPT-4 Turbo 0,00765 Dollar.

Entwickler können zudem OpenAIs Bildgenerator DALL-E 3, der inzwischen für ChatGPT-Plus- und ChatGPT-Enterprise-Benutzer verfügbar ist, über die Bilder-API direkt in ihre Anwendungen und Produkte integrieren, indem sie "dall-e-3" als Modell angeben. Unternehmen wie Snap, Coca-Cola oder Shutterstock haben DALL-E 3 bereits verwendet, um Bilder und Designs für ihre Kunden und Kampagnen zu generieren. OpenAI bietet verschiedene Format- und Qualitätsoptionen an, wobei die Preise bei 0,04 Dollar pro generiertem Bild beginnen.

Developer können zudem über die Text-to-Speech-(tts-)API gesprochene Sprache aus geschriebenen Texten generieren. Das dafür vorgesehene Modell bietet sechs voreingestellte Stimmen zur Auswahl an, zudem zwei Modellvarianten (tts-1 und tts-1-hd). Die erste Variante ist für Echtzeitanwendungen optimiert, die zweite für Qualität. Die Preise beginnen bei 0,015 Dollar pro eingegebene 1.000 Zeichen.

GPT-4 Turbo steht zahlenden Entwicklern zum Testen zur Verfügung, indem sie "gpt-4-1106-preview" in der API angeben. Ein stabileres und damit produktionsreifes Modell soll in den kommenden Wochen veröffentlicht werden.

GPT-3.5 Turbo mit verbesserter Befehlsverfolgung

Zusätzlich zu GPT-4 Turbo will das Unternehmen auch eine neue Version von GPT-3.5 Turbo veröffentlichen, das standardmäßig ein 16.000-Token-Kontextfenster bereitstellt. GPT-3.5 Turbo bietet eine verbesserte Befehlsverfolgung, einen JSON-Modus und parallele Funktionsaufrufe. Interne Tests bei OpenAI sollen eine 38-prozentige Verbesserung bei Formatierungsaufgaben wie der Generierung von JSON, XML und YAML gezeigt haben. Entwickler können auf das neue Modell zugreifen, indem sie "gpt-3.5-turbo-1106" in der API aufrufen.

Anwendungen, die den Namen "gpt-3.5-turbo" verwenden, werden am 11. Dezember automatisch auf das neue Modell aktualisiert. Auf ältere Modelle kann bis zum 13. Juni 2024 durch die Eingabe von "gpt-3.5-turbo-0613" in der API zugegriffen werden.

Assistants API veröffentlicht

OpenAI hat zudem die Assistants-API veröffentlicht - als ersten Schritt, um Entwicklern das Erstellen hochwertiger KI-Anwendungen zu erleichtern. Als Assistant bezeichnet der Anbieter eine zu einem bestimmten Zweck generierte KI, die eigene Instruktionen enthält, zusätzliches Wissen nutzt und individuelle Modelle und Tools aufrufen kann, um ganz bestimmte Aufgaben zu erledigen. Die API bietet Funktionen wie Code-Interpreter und -Retrieval sowie Funktionsaufrufe, um schwierige Aufgaben zu übernehmen, die bisher den Devs vorbehalten waren.

Laut OpenAI ist die API besonders flexibel: Die Anwendungsfälle reichen von einer natürlichsprachigen App für die Datenanalyse über einen Programmierassistenten, einen KI-unterstützten Urlaubsplaner, einen sprachgesteuerten DJ bis hin zu einer intelligenten visuellen Canvas - die Liste ist endlos. Die Programmierschnittstelle nutzt Herstellerangaben zufolge dieselben Fähigkeiten, die das neue Produkt GPTs auszeichnen: benutzerdefinierte Anweisungen und Tools wie Code-Interpreter, Retrieval und Funktionsaufrufe.

Eine wichtige Änderung, die durch die API eingeführt wird, sind persistente und sehr lange Threads, die es Entwicklern ermöglichen, die Verwaltung des Thread-Status an OpenAI abzugeben und die Einschränkungen des Kontextfensters zu umgehen. Mit der Assistants-API fügen Sie einfach jede neue Nachricht einem bestehenden Thread hinzu.

Kommt nicht auf jede Bühne: Microsoft-Chef Satya Nadella (r.) war Gast von OpenAI-Gründer Sam Altman.
Foto: YouTube, OpenAI

GPT-4-Fine-Tuning noch in Arbeit

Zum Thema individuelle Anpassung von Modellen hieß es auf der Entwicklerkonferenz, OpenAI werde ein experimentelles Zugangsprogramm für das GPT-4-Fine-Tuning bauen. Allerdings zeigten erste Ergebnisse, dass es noch einigen Aufwand brauche, um so deutliche Verbesserungen zu erzielen, wie sie mit dem GPT-3.5-Fine-Tuning erreicht worden seien. In der Zeit, in der Entwickler mit dem GPT-3.5-Fine-Tuning arbeiten, sollen sie eine Option bekommen, über ihre Fine-Tuning-Konsole auch am GPT-4-Fine-Tuning-Programm teilzunehmen.

Organisationen, die mehr Anpassungen benötigen, als ihnen Fine-Tuning bieten kann - insbesondere Bereiche mit extrem großen proprietären Datensätzen, mindestens Milliarden von Token -, bietet OpenAI ein "Custom Models Program". Es soll ausgewählten Unternehmen die Möglichkeit geben, gemeinsam mit OpenAI-Forschern GPT-4 für ihren spezifischen Bereich zu trainieren. Dabei sollen die Schritte des Modelltrainings angepasst, zusätzliche domänenspezifische Pre-Trainings umgesetzt und unter Umständen auch ein maßgeschneiderter RL-Post-Trainingsprozess eingeführt werden, der dann ganz auf die jeweilige Domäne zugeschnitten ist.

Die ausgewählten Unternehmen haben exklusiven Zugang zu ihren benutzerdefinierten Modellen. Diese werden nicht an andere Kunden weitergegeben oder zum Training anderer Modelle verwendet. Ebenso sollen proprietäre Daten, die OpenAI zum Trainieren von benutzerdefinierten Modellen zur Verfügung gestellt werden, in keinem anderen Kontext wiederverwendet werden. Es handelt sich um ein begrenztes und laut OpenAI kostspieliges Programm, für das sich interessierte Organisationen bewerben können.

Last, but not least hat OpenAI angekündigt, mehrere Preise auf der Plattform zu senken. Die Details dazu finden Sie hier! (hv)