OpenAI eröffnet Entwicklern Zugriff auf das vollständige o1-Argumentationsmodell

Das openAI o1-Logo
OpenAI

Am neunten Tag der Feiertags-Pressekampagne von OpenAI gab das Unternehmen bekannt, dass es die Vollversion seines o1-Argumentationsmodells für ausgewählte Entwickler über die API des Unternehmens veröffentlichen wird. Bis zu den Nachrichten vom Dienstag konnten Entwickler nur auf das weniger leistungsfähige o1-Preview- Modell zugreifen.

Nach Angaben des Unternehmens wird das vollständige o1-Modell für Leute in der Entwicklerkategorie „Tier 5“ von OpenAI eingeführt. Dabei handelt es sich um Nutzer, die seit mehr als einem Monat ein Konto haben und mindestens 1.000 US-Dollar bei dem Unternehmen ausgeben. Der neue Dienst ist für Benutzer besonders teuer (aufgrund der zusätzlichen Rechenressourcen, die o1 benötigt) und kostet 15 US-Dollar für jeweils (ungefähr) 750.000 analysierte Wörter und 60 US-Dollar für alle (ungefähr) 750.000 vom Modell generierten Wörter. Das ist das Drei- bis Vierfache der Kosten für die Ausführung derselben Aufgaben mit GPT-4o .

Bei diesen Preisen stellte OpenAI sicher, dass die Fähigkeiten des vollständigen Modells gegenüber denen der Vorschau-Iteration verbessert wurden. Das neue o1-Modell ist anpassbarer als sein Vorgänger (sein neuer Parameter „reasoning_effort“ bestimmt, wie lange die KI über eine bestimmte Frage nachdenkt) und bietet Funktionsaufrufe, Entwicklernachrichten und Bildanalyse, die alle in der o1-Vorschau fehlten.

Das Unternehmen gab außerdem bekannt, dass es seine GPT-4o- und 4o-mini- Modelle in seine Realtime-API integriert, die für Sprach-KI-Anwendungen mit geringer Latenz (wie Advanced Voice Mode ) entwickelt wurde. Die API unterstützt jetzt auch WebRTC, den offenen Branchenstandard für die Entwicklung von Sprach-KI-Anwendungen in Webbrowsern. Machen Sie sich also auf eine ganze Reihe weiterer Websites gefasst, die im Jahr 2025 versuchen, mit Ihnen zu kommunizieren.

„Unsere WebRTC-Integration ist darauf ausgelegt, reibungslose und reaktionsschnelle Interaktionen unter realen Bedingungen zu ermöglichen, selbst bei variabler Netzwerkqualität“, schrieb OpenAI in seiner Ankündigung. „Es übernimmt die Audiokodierung, das Streaming, die Rauschunterdrückung und die Überlastungskontrolle.“

OpenAI hat bisher im Rahmen der Live-Stream-Veranstaltung die Vollversion von o1 vorgestellt (zusätzlich zur Ankündigung vom Dienstag), sein Sora-Videogenerierungsmodell veröffentlicht, seine neue Projektfunktion vorgestellt und mehrere Updates für seine Canvas -Suche bereitgestellt und erweiterte Sprachmodusfunktionen .

Nur noch drei Tage bis zum Finale der Veranstaltung. Was wird OpenAI als nächstes präsentieren? Wir müssen abwarten und sehen.