GPT-4 Turbo ist das größte Update seit der Einführung von ChatGPT
OpenAI hat gerade während seiner ersten Entwicklerkonferenz die neuesten Updates seiner großen Sprachmodelle (LLM) vorgestellt. Die bemerkenswerteste Verbesserung ist die Veröffentlichung von GPT-4 Turbo, das derzeit in der Vorschauphase ist. GPT-4 Turbo ist ein Update des bestehenden GPT-4 und bringt ein deutlich erweitertes Kontextfenster und Zugriff auf viel neueres Wissen mit sich. Hier finden Sie alles, was Sie über GPT-4 Turbo wissen müssen.
OpenAI behauptet, dass das KI-Modell leistungsfähiger und gleichzeitig billiger als seine Vorgänger sein wird. Im Gegensatz zu den vorherigen Versionen wurde es auf Informationen aus dem April 2023 trainiert. Das ist schon ein umfangreiches Update – die neueste Version erreichte im September 2021 ihr Maximum. Ich habe es gerade selbst getestet, und tatsächlich ermöglicht die Verwendung von GPT-4 ChatGPT, Informationen abzurufen von Ereignissen, die bis April 2023 stattgefunden haben, sodass das Update bereits live ist.
GPT-4 Turbo verfügt über ein deutlich größeres Kontextfenster als die Vorgängerversionen. Dies ist im Wesentlichen das, was GPT-4 Turbo berücksichtigt, bevor es einen Antworttext generiert. Zu diesem Zweck verfügt es jetzt über ein Kontextfenster mit 128.000 Token (das ist die Text- oder Codeeinheit, die LLMs lesen), was, wie OpenAI in seinem Blogbeitrag verrät, etwa 300 Textseiten entspricht.
Das ist ein ganzer Roman, den Sie möglicherweise im Verlauf einer einzelnen Konversation an ChatGPT weiterleiten könnten, und ein viel größeres Kontextfenster als die Vorgängerversionen (8.000 und 32.000 Token).
Kontextfenster sind für LLMs wichtig, weil sie ihnen helfen, beim Thema zu bleiben. Wenn Sie mit großen Sprachmodellen interagieren, werden Sie feststellen, dass diese möglicherweise vom Thema abweichen, wenn das Gespräch zu lange dauert. Dies kann zu ziemlich unbeholfenen und beunruhigenden Reaktionen führen, wie zum Beispiel damals, als uns Bing Chat mitteilte, dass es ein Mensch sein wollte . GPT-4 Turbo sollte, wenn alles gut geht, den Wahnsinn viel länger in Schach halten als das aktuelle Modell.
GPT-4 Turbo wird für Entwickler außerdem günstiger in der Ausführung sein, da die Kosten auf 0,01 US-Dollar pro 1.000 Eingabe-Token reduziert werden, was sich auf etwa 750 Wörter aufrundet, während die Ausgaben 0,03 US-Dollar pro 1.000 Token kosten. OpenAI schätzt, dass diese neue Version dreimal günstiger ist als die Vorgängerversionen.
Das Unternehmen gibt außerdem an, dass GPT-4 Turbo Anweisungen besser befolgen kann und angewiesen werden kann, die Codierungssprache Ihrer Wahl zu verwenden, um Ergebnisse zu erzielen, beispielsweise XML oder JSON. GPT-4 Turbo unterstützt auch Bilder und Text-to-Speech und bietet weiterhin die DALL-E 3-Integration.
Dies war nicht die einzige große Enthüllung für OpenAI, das auch GPTs einführte, benutzerdefinierte Versionen von ChatGPT, die jeder ohne Programmierkenntnisse für seinen eigenen Zweck erstellen kann. Diese GPTs können für den persönlichen oder geschäftlichen Gebrauch erstellt, aber auch an andere verteilt werden. Laut OpenAI sind GPTs heute für ChatGPT Plus- Abonnenten und Unternehmensbenutzer verfügbar.
Angesichts der ständigen Bedenken hinsichtlich des Urheberrechts schließt sich OpenAI schließlich Google und Microsoft an und erklärt, dass es die rechtliche Verantwortung übernimmt, wenn seine Kunden wegen Urheberrechtsverletzung verklagt werden.
Mit dem riesigen Kontextfenster, dem neuen Urheberrechtsschutz und einer verbesserten Fähigkeit, Anweisungen zu befolgen, könnte sich GPT-4 Turbo sowohl als Segen als auch als Fluch erweisen. ChatGPT ist ziemlich gut darin, Dinge nicht zu tun, die es nicht tun sollte, aber es hat trotzdem eine dunkle Seite . Diese neue Version ist zwar wesentlich leistungsfähiger, hat aber möglicherweise auch die gleichen Nachteile wie andere LLMs, außer dass sie dieses Mal auf Steroiden basiert.