GPT-5 treibt den Anstieg der KI-Ressourcen voran, aber Rechenzentren zeigen eine überraschende Effizienz
KI ist mittlerweile allgegenwärtig, Themen wie GPT-5 und Groks jüngste Open-Source-Ankündigung beherrschen die Schlagzeilen. Einer der wichtigsten (und berechtigtesten) Kritikpunkte an der Technologie ist ihr hoher Energiebedarf. Einige Studien gehen davon aus, dass GPT-5 täglich so viel Strom verbraucht, wie man damit 1,5 Millionen Haushalte versorgen könnte – ganz zu schweigen von der Wassermenge, die für die Kühlung der Rechenzentren benötigt wird.
Ein neuer Bericht deutet jedoch darauf hin, dass es eine andere Möglichkeit geben könnte, und zwar eine, die nicht bedeutet, dass wir den Planeten verbrennen müssen, um KI-Technologie nutzen zu können. Die britische Umweltbehörde und techUK haben gemeinsam 73 Rechenzentren in ganz England untersucht. Die Ergebnisse sind überraschend und ermutigend zugleich.
Laut TechUK nutzten 51 Prozent der Rechenzentren wasserlose Kühlsysteme und 64 Prozent verbrauchten weniger als 10.000 Kubikmeter Wasser pro Jahr. Das ist weniger als in einem durchschnittlichen Freizeitzentrum. Und 89 Prozent der Rechenzentren überwachten ihren Wasserverbrauch, um klimafreundlichere Ergebnisse zu erzielen.
Die Ergebnisse widersprechen der weit verbreiteten Meinung , dass KI-Rechenzentren enorme Mengen Wasser verbrauchen. Richard Thompson, stellvertretender Direktor für Wasserressourcen bei der britischen Umweltbehörde, sagte: „Ich bin ermutigt durch die Arbeit von techUK, den Wasserverbrauch besser zu verstehen – die Ergebnisse deuten darauf hin, dass britische Rechenzentren verschiedene Kühltechnologien nutzen und wasserbewusster werden. Technologische Fortschritte müssen Hand in Hand mit dem Schutz der öffentlichen Wasserversorgung, der Ernährungssicherheit und der Umwelt gehen. Es ist wichtig, dass der Sektor Nachhaltigkeit in den Mittelpunkt stellt und den Wasserverbrauch im Einklang mit sich entwickelnden Standards minimiert. Wir arbeiten mit der Industrie und anderen Regulierungsbehörden zusammen, um diese Standards zu verbessern und so die besten Ergebnisse für unsere Umwelt und unsere Wasserversorgung für zukünftige Generationen zu sichern.“
Es gibt immer noch das Problem der Macht
Es ist zwar ermutigend zu sehen, dass Rechenzentren weniger Wasser verbrauchen als bisher angenommen, doch niemand kann leugnen, dass sie absurd viel Strom verbrauchen. Obwohl sich die Situation seit 2023 verbessert hat, steht der Planet immer noch vor einer Energiekrise, und der stetig wachsende Energiebedarf für künstliche Intelligenz gießt Öl ins Feuer, das bereits außer Kontrolle geraten ist.
Das Problem ist, dass die genaue benötigte Energiemenge nicht klar ist. Eine Studie des Berkeley Lab aus dem Jahr 2024 zeigt einen Anstieg des Energieverbrauchs, der mit der zunehmenden Popularität von KI-Assistenten einhergeht. Genaue Zahlen sind jedoch schwer zu ermitteln, da so wenige KI-Unternehmen ihre Verbrauchsdaten veröffentlichen.
Laut Sam Altman von ChatGPT verbraucht eine durchschnittliche Abfrage etwa 0,34 Wattstunden Energie. Das mag nicht viel erscheinen, ist aber angesichts der Millionen von Abfragen, die täglich durch die KI laufen, eine beachtliche Menge. Das entspricht in etwa der Energiemenge, die eine LED-Glühbirne in zwei Minuten verbraucht.
Anschließend veröffentlichte Google seine eigenen Nutzungszahlen. Der Suchmaschinenriese warnt jedoch, dass diese den Gesamtverbrauch von Gemini „erheblich“ unterschätzen: Pro Abfrage werden durchschnittlich 0,10 Wattstunden Energie und 0,12 ml Wasser verbraucht.
Was Grok betrifft, ist nicht klar, wie viel Energie die Plattform verbraucht, aber in einem Chat wurde angedeutet, dass sie 1 bis 2 Wattstunden Energie verbrauchen könnte.
Der Energiebedarf von KI sinkt mit zunehmender Weiterentwicklung der Technologie. Google berichtete, dass „der Energieverbrauch und der CO2-Fußabdruck der durchschnittlichen Texteingabeaufforderungen von Gemini Apps in den letzten zwölf Monaten um das 33- bzw. 44-Fache gesunken sind, während gleichzeitig die Qualität der Antworten gestiegen ist.“ ( Transkription von ZDNet .)
KI mag die Zukunft sein, aber sie darf den Planeten nicht kosten
Die Umweltbedenken im Zusammenhang mit künstlicher Intelligenz sind nicht unbemerkt geblieben. Google hat kürzlich eine umfassende Nachhaltigkeitslösung vorgeschlagen, die das Problem aus mehreren Blickwinkeln angeht. Das Unternehmen versprach, die Nutzung während der Spitzenzeiten zu reduzieren, um Stromausfälle zu vermeiden. Darüber hinaus will das Unternehmen die Leistung maximieren und Techniken wie die spekulative Dekodierung implementieren, die den Arbeitsaufwand und damit den Energiebedarf reduzieren.
Google ist jedoch nur ein Unternehmen, und obwohl sich die Zahlen verbessern, hat sich der Gesamtenergieverbrauch des Unternehmens in den letzten vier Jahren verdoppelt. Eine Studie aus dem Jahr 2023 ergab, dass fast 30 Prozent der Amerikaner täglich künstliche Intelligenz nutzen (eine Zahl, die seitdem sicherlich gestiegen ist), während eine aktuelle Reuters/Ipsos-Umfrage zeigt, dass 61 Prozent über die Energiekosten besorgt sind.
Diese Zahlen machen deutlich, dass Unternehmen wie OpenAI und Google Lösungen finden müssen, um die Auswirkungen künstlicher Intelligenz zu reduzieren. Die Technologie ist neu, und bei jeder Spitzentechnologie ist mit einer gewissen Verschwendung zu rechnen – doch die Technologie gibt es schon lange genug, um die Auswirkungen von Rechenzentren auf lokale Gemeinschaften und den Planeten insgesamt deutlich zu machen.
Als Computer erstmals auf der Bildfläche erschienen, war der durchschnittliche PC so groß wie ein ganzes Zimmer. Heute passen sie in unsere Hosentaschen. KI-Technologie muss diesem Muster folgen, allerdings in größerem Maßstab und mit Fokus auf die benötigten Ressourcen. Ich sehe keine Chance, diesen Geist wieder in die Flasche zu bekommen, aber in einer Zeit, in der wir bereits eine Klimakrise erleben, müssen wir ethischer und rücksichtsvoller vorgehen.
Die Entdeckung, dass einige Rechenzentren weit weniger Wasser verbrauchen als erwartet, ist ermutigend, aber sie ist nur ein kleiner Teil eines viel größeren Unterfangens.
