Hier finden Sie alles, was OpenAI in den letzten 12 Tagen angekündigt hat
OpenAI startete am 5. Dezember seine erste Medienkampagne „ 12 Days of OpenAI “ und stellte jeden Tag im Rahmen einer Reihe von Live-Stream-Veranstaltungen neue Funktionen, Modelle, Abonnementstufen und Fähigkeiten für sein wachsendes ChatGPT- Produkt-Ökosystem vor.
Hier ist ein kurzer Überblick über alles, was das Unternehmen angekündigt hat.
Tag 1: OpenAI entfesselt sein o1-Argumentationsmodell und stellt ChatGPT Pro vor
OpenAI eröffnete die Feierlichkeiten mit einigen wichtigen Ankündigungen. Zunächst stellte das Unternehmen die Vollfunktionsversion seiner neuen o1-Familie von Reasoning-Modellen vor und kündigte an, dass diese ab sofort, wenn auch in begrenzten Mengen, für seine Plus-Abonnenten für 20 US-Dollar pro Monat verfügbar sein würden. Um das neue Modell vollständig nutzen zu können (sowie jedes andere Modell, das OpenAI anbietet, plus unbegrenzten Zugriff auf den erweiterten Sprachmodus), müssen Benutzer sich für das neueste und höchste Abonnementpaket von OpenAI entscheiden: das Pro für 200 US-Dollar pro Monat Stufe.
Tag 2: OpenAI erweitert sein Reinforcement Fine-Tuning Research-Programm
Am zweiten Tag der Veranstaltung gab das OpenAI-Entwicklungsteam bekannt, dass es sein Reinforcement Fine-Tuning Research-Programm erweitert, das es Entwicklern ermöglicht, die Modelle des Unternehmens zu Fachexperten zu schulen, die „sich bei bestimmten Sätzen komplexer, domänenspezifischer Aufgaben auszeichnen“. laut der Website des Programms . Obwohl es sich eher an Institute, Universitäten und Unternehmen als an einzelne Benutzer richtet, plant das Unternehmen, die API des Programms Anfang nächsten Jahres der Öffentlichkeit zugänglich zu machen.
Tag 3: Der Sora-Videogenerator von OpenAI ist endlich da. Huzzah?
Am dritten Tag von OpenAI gab mir Sam Altman: Sora Video Generation. Ja, OK, der Rhythmus dafür funktioniert nicht ganz, aber hey, Sora auch nicht. Das lang erwartete und vielgepriesene Videogenerierungsmodell von OpenAI, das seit Februar stark gehypt wurde, feierte am 9. Dezember sein offizielles Debüt und erhielt mittelmäßige Kritiken . Es stellt sich heraus, dass es nach zwei Jahren des KI-Booms nicht wirklich etwas bringt, das führende Unternehmen in diesem Bereich zu sein und nur 20-Sekunden-Clips mit 1080p herauszubringen, insbesondere wenn viele seiner Konkurrenten bereits eine ähnliche Leistung bieten, ohne dass ein 20-Dollar- oder 200-Dollar-Monat-Abonnement.
Tag 4: OpenAI erweitert sein Canvas
OpenAI folgte seinen Sora-Enthüllungen mit einer Reihe von Verbesserungen an seiner kürzlich veröffentlichten Canvas-Funktion , der Antwort des Unternehmens auf Anthropics Artifacts. Während seines Livestreams an Tag 4 gab das OpenAI-Entwicklungsteam bekannt, dass Canvas nun direkt in das GPT-4o-Modell integriert wird, wodurch es Benutzern aller Preisstufen, einschließlich kostenlos, nativ verfügbar gemacht wird. Sie können Python-Code jetzt direkt im Canvas-Bereich ausführen, sodass der Chatbot ihn direkt analysieren und Verbesserungsvorschläge unterbreiten kann sowie die Funktion zum Erstellen benutzerdefinierter GPTs verwenden kann.
Tag 5: ChatGPT arbeitet mit Apple Intelligence zusammen
Am fünften Tag gab OpenAI bekannt, dass es mit Apple zusammenarbeitet, um ChatGPT in Apple Intelligence, insbesondere Siri, zu integrieren, sodass Benutzer den Chatbot direkt über iOS aufrufen können. Apple hatte bereits bei der ersten Vorstellung von Apple Intelligence angekündigt, dass dies der Fall sein würde, aber mit der Veröffentlichung von iOS 18.2 ist diese Funktionalität nun Realität. Wenn nur Apples Nutzer tatsächlich Apples KI nutzen wollten .
Tag 6: Der erweiterte Sprachmodus verfügt jetzt über Sehkraft und kann den Weihnachtsmann sprechen
2024 war das Jahr, in dem der Advanced Voice Mode vorgestellt wurde. OpenAI gab am sechsten Tag seiner Live-Stream-Veranstaltung bekannt , dass sein Konversations-Chatbot-Modell nun die Welt um sich herum über die Videokamera eines Mobilgeräts oder per Bildschirmfreigabe betrachten kann. Dadurch können Benutzer der KI Fragen zu ihrer Umgebung stellen, ohne die Szene beschreiben oder ein Foto von dem, was sie betrachten, hochladen zu müssen. Das Unternehmen hat außerdem eine saisonale Stimme für AVM veröffentlicht, die Jolly Old St. Nick nachahmt, für den Fall, dass Sie keine Zeit haben, Ihre Kinder zum Einkaufszentrum zu fahren und den echten Jungen persönlich zu treffen.
Tag 7: OpenAI stellt Projekte für ChatGPT vor
OpenAI beendete die erste Ankündigungswoche mit einer Ankündigung, die jedem Jungen und Mädchen ein Lächeln ins Gesicht zaubern wird: Ordner! Konkret stellte das Unternehmen sein neues intelligentes Ordnersystem mit dem Namen „ Projekte “ vor, das es Benutzern ermöglicht, ihre Chatverläufe und hochgeladenen Dokumente besser nach Themen zu organisieren.
Tag 8: Die ChatGPT-Suche ist jetzt für alle verfügbar
Die ChatGPT-Suchfunktion von OpenAI, die im Oktober eingeführt wurde, ist jetzt für alle angemeldeten Benutzer verfügbar , unabhängig von ihrer Abonnementstufe. Die Funktion durchsucht das Internet nach Informationen über die Anfrage des Benutzers, kratzt die gefundenen Informationen von relevanten Websites und synthetisiert diese Daten dann zu einer Konversationsantwort. Es macht im Wesentlichen das Klicken durch eine Suchergebnisseite überflüssig und ist funktional identisch mit dem, was Perplexity AI bietet, sodass ChatGPT mit der immer beliebter werdenden App konkurrieren kann. Seien Sie jedoch gewarnt: Eine aktuelle Studie hat gezeigt, dass die Funktion in vielen ihrer Antworten „ sicher falsch “ ist.
Tag 9: Das vollständige o1-Modell kommt zur OpenAI-API
Als hätte OpenAI nicht nur einer, sondern gleich zwei Tanten einen Pullover geschenkt, gab es am neunten Tag bekannt, dass es ausgewählten Entwicklern den Zugriff auf die Vollversion seines o1-Argumentationsmodells über die API ermöglicht. Das Unternehmen führt außerdem Echtzeit-API-Updates, eine neue Modellanpassungstechnik namens Preference Fine-Tuning und neue SDKs für Go und Java ein.
Tag 10: 1-800-ChatGPT
Um das letzte Marktsegment zu erobern, das noch nicht erreicht werden konnte – insbesondere Menschen ohne Internetzugang – hat OpenAI die Chatline 1-800-ChatGPT (1-800-242-8478) veröffentlicht . Wählen Sie sich von jeder Festnetz- oder Mobilfunknummer in den USA aus ein, um bis zu 15 Minuten lang kostenlos mit dem erweiterten Sprachmodus der KI zu sprechen.
Tag 11: ChatGPT funktioniert jetzt mit noch mehr Programmier-Apps
Letzten Monat gewährte OpenAI der Mac-basierten Desktop-Version von ChatGPT die Möglichkeit, direkt mit einer Reihe beliebter Codierungsanwendungen zu kommunizieren, sodass seine KI Snippets direkt daraus abrufen kann, anstatt dass Benutzer den Code kopieren und in das Eingabeaufforderungsfenster seines Chatbots einfügen müssen . Am Donnerstag gab das Unternehmen bekannt , dass es die Anzahl der Apps und IDEs, mit denen ChatGPT zusammenarbeiten kann, drastisch erweitert. Und es geht nicht nur um das Codieren von Apps; ChatGPT funktioniert jetzt auch mit herkömmlichen Textprogrammen wie Apple Notes, Notion und Quip. Sie können während der Arbeit sogar den erweiterten Sprachmodus in einem separaten Fenster starten, Fragen stellen und Vorschläge von der KI zu Ihrem aktuellen Projekt erhalten.
Tag 12: OpenAI stellt seine kommenden Argumentationsmodelle o3 und o3-mini vor
Am 12. Tag der Live-Stream-Veranstaltung von OpenAI erschien CEO Sam Altman zum letzten Mal, um zu besprechen, was das Unternehmen für das neue Jahr vorhat – insbesondere seine Argumentationsmodelle der nächsten Generation, o3 und o3-mini . Das Namensschema ist etwas seltsam (und wurde vorgenommen, um Urheberrechtsprobleme mit der britischen Telekommunikationsgesellschaft O2 zu vermeiden), aber die kommenden Modelle bieten Berichten zufolge eine überlegene Leistung bei einigen der anspruchsvollsten Mathematik-, Naturwissenschafts- und Codierungs-Benchmark-Tests der Branche – sogar im Vergleich zu o1, dem Die Vollversion wurde vor weniger als zwei Wochen offiziell veröffentlicht. Das Unternehmen bietet Forschern den o3-mini derzeit als Vorschau für Sicherheitstests und Red-Teaming-Versuche an. Es gibt jedoch noch keine Informationen darüber, wann alltägliche Benutzer die Modelle selbst ausprobieren können.