Sie werden nicht glauben, wie viel ChatGPT für den Betrieb kostet

Ein neuer Bericht behauptet zu wissen, wie viel ChatGPT pro Tag kostet, einschließlich der ungefähren Kosten jeder Abfrage. Der beliebte Text-to-Speech-Chatbot könnte im November 2022 eine KI-Revolution ausgelöst haben, hat sich aber als äußerst teuer in der Wartung erwiesen.

Der neue Bericht stammt von Dylan Patel, Chefanalyst des Forschungsunternehmens SemiAnalysis , der sagt, dass es ungefähr 700.000 US-Dollar pro Tag oder 36 Cent pro Abfrage kostet, um den Chatbot am Laufen zu halten.

Es ist in der Tat so teuer, dass Microsoft laut Windows Central möglicherweise seine eigenen proprietären KI-Chips entwickelt, um die Wartung von OpenAIs Betrieb von ChatGPT zu unterstützen.

Die ChatGPT-Website auf dem Bildschirm eines Laptops, während der Laptop auf einem Tresen vor einem schwarzen Hintergrund steht.

ChatGPT hat nicht nur schnell 100 Millionen aktive Benutzer im Januar erreicht, eine Leistung, für die Tech-Marken zuvor Jahre brauchten, sondern auch mit hohem Datenverkehr und Kapazitätsproblemen zu kämpfen, die seine Server verlangsamen und zum Absturz bringen. Das Unternehmen versuchte, dies zu beheben, indem es eine kostenpflichtige ChatGPT Plus- Stufe einführte, die 20 US-Dollar pro Monat kostet. Es gibt jedoch kein Wort darüber, wie viele Benutzer die kostenpflichtige Option abonnieren.

OpenAI verwendet derzeit Nvidia-GPUs, um nicht nur seine eigenen ChatGPT-Prozesse zu verwalten, sondern auch die der Marken, mit denen es zusammenarbeitet. Branchenanalysten gehen davon aus, dass das Unternehmen wahrscheinlich weitere 30.000 GPUs von Nvidia benötigen wird, um seine kommerzielle Leistung allein für den Rest des Jahres 2023 aufrechtzuerhalten.

Mit Microsoft als einem seiner wichtigsten Mitarbeiter und Investoren könnte OpenAI die Technologiemarke in Betracht ziehen, um bei der Entwicklung von Hardware zu helfen, um die Betriebskosten für ChatGPT zu senken. Laut Windows Central hat Microsoft diesen KI-Chip bereits in Arbeit. Es trägt den Codenamen Athena und wird derzeit intern mit den markeneigenen Teams getestet. Der Chip soll voraussichtlich nächstes Jahr für Microsofts Azure-KI-Dienste eingeführt werden.

Es gibt kein Wort darüber, wie oder wann der Chip zu OpenAI und ChatGPT durchsickern wird, aber die Annahme ist, dass dies der Fall sein wird. Die Verbindung kommt dadurch zustande, dass ChatGPT von Azure-Diensten unterstützt wird. Der KI-Chip ersetzt möglicherweise Nvidia-GPUs nicht vollständig, könnte aber dazu beitragen, die Nachfrage nach der Hardware zu verringern und so die Kosten für den Betrieb von ChatGPT zu senken, fügte Windows Central hinzu.