Es stellt sich heraus, dass es nicht so schwer ist, das zu tun, was OpenAI für weniger Geld bietet
Auch wenn OpenAI weiterhin an seiner Behauptung festhält , dass der einzige Weg zu AGI über enorme Finanz- und Energieausgaben führt, nutzen unabhängige Forscher Open-Source-Technologien, um die Leistung seiner leistungsstärksten Modelle zu erreichen – und das zu einem Bruchteil des Preises.
Letzten Freitag gab ein vereintes Team der Stanford University und der University of Washington bekannt, dass sie ein auf Mathematik und Codierung ausgerichtetes großes Sprachmodell trainiert haben , das genauso gut funktioniert wie die Argumentationsmodelle o1 von OpenAI und R1 von DeepSeek . Der Aufbau kostete nur 50 US-Dollar an Cloud-Computing-Credits. Berichten zufolge verwendete das Team ein handelsübliches Basismodell und destillierte dann das experimentelle Modell Gemini 2.0 Flash Thinking von Google hinein. Beim Destillieren von KIs werden die relevanten Informationen zur Erledigung einer bestimmten Aufgabe aus einem größeren KI-Modell entnommen und auf ein kleineres übertragen.
Darüber hinaus veröffentlichten Forscher von Hugging Face am Dienstag ein Konkurrenztool für Deep Research von OpenAI und (ebenfalls) Deep Research von Google Gemini mit dem Namen Open Deep Research , das sie in nur 24 Stunden entwickelten. „Während leistungsstarke LLMs jetzt frei in Open Source verfügbar sind, hat OpenAI nicht viel über das Agenten-Framework preisgegeben, das Deep Research zugrunde liegt“, schrieb Hugging Face in seinem Ankündigungsbeitrag . „Deshalb haben wir beschlossen, uns auf eine 24-Stunden-Mission zu begeben, um ihre Ergebnisse zu reproduzieren und nebenbei das benötigte Framework als Open Source bereitzustellen!“ Berichten zufolge kostet es schätzungsweise 20 US-Dollar an Cloud-Computing-Credits und die Schulung würde weniger als 30 Minuten dauern.
Das Modell von Hugging Face erreichte anschließend eine Genauigkeit von 55 % beim General AI Assistants (GAIA)-Benchmark, der zum Testen der Kapazitäten von Agenten-KI-Systemen verwendet wird. Im Vergleich dazu erreichte Deep Research von OpenAI je nach Antwortmethode eine Genauigkeit von 67 bis 73 %. Zugegeben, das 24-Stunden-Modell schneidet nicht ganz so gut ab wie das Angebot von OpenAI, aber es brauchte auch nicht Milliarden von Dollar und die Energieerzeugungskapazität eines mittelgroßen europäischen Landes, um es zu trainieren.
Diese Bemühungen folgen der Nachricht vom Januar , dass es einem Team des Sky Computing Lab der University of California, Berkeley, gelungen ist, ihr Sky T1-Argumentationsmodell für rund 450 US-Dollar an Cloud-Computing-Credits zu trainieren. Das Sky-T1-32B-Preview-Modell des Teams erwies sich als gleichwertig mit der frühen Veröffentlichung des O1-Preview-Modells. Da immer mehr dieser Open-Source-Konkurrenten zur Branchendominanz von OpenAI auftauchen, wirft ihre bloße Existenz die Frage auf, ob der Plan des Unternehmens, eine halbe Billion Dollar für den Bau von KI-Rechenzentren und Energieerzeugungsanlagen auszugeben, wirklich die Antwort ist.