Künstliche Intelligenz als Stromfresser: Jede Anfrage bei ChatGPT, BARD und Co kostet schon jetzt rund drei Wattstunden Strom – und die Zahl der Nutzer wächst. In naher Zukunft könnte dadurch der Stromverbrauch der weltweiten KI-Systeme auf mehr als 80 Terawattstunden pro Jahr ansteigen – das entspricht dem Elektrizitätsbedarf von Ländern wie den Niederlanden, Schweden oder Argentinien, wie ein Forscher ermittelt hat. Schuld daran sind die leistungsstarken Prozessoren, die die künstliche Intelligenz für Training und Einsatz benötigt.
Bisher waren es vor allem die Krypto-Miner, die für die Erzeugung neuer Bitcoins und anderer Kryptowährungen enorme Rechenleistung und damit auch Strom verbrauchten. Doch inzwischen läuft ihnen eine andere Technologie den Rang ab: die künstliche Intelligenz. Für das Training und den Betrieb von generativen KI-Systemen wie ChatGPT, BARD und Co werden ebenfalls enorme Rechenleistungen benötigt – und entsprechend energiehungrige Prozessoren.
Enormer Stromverbrauch nicht nur beim Training
Doch was bedeutet dies für den heutigen und künftigen Stromverbrauch der weltweiten KI? „Angesichts des Booms der KI wächst die Sorge, dass die Rechen-Ressourcen für die Entwicklung und den Betrieb der KI-Modelle einen großen Schub im Beitrag der Rechenzentren zum globalen Stromverbrauch auslösen“, erklärt Alex de Vries von der Freien Universität Amsterdam. Während bisher meist der Stromverbrauch in der Trainingsphase der künstlichen Intelligenzen im Fokus stand, hat er näher untersucht, wie viel Elektrizität der laufende Betrieb der KI-Systeme erfordert.
„Allein um ChatGPT am Laufen zu halten, benötigt OpenAI nach Daten des Forschungsunternehmens SemiAnalysis 3.617 HGX A100-Server von NVIDIA mit insgesamt 28.936 Grafikprozessor-Einheiten“, berichtet de Vries. „Daraus ergibt sich ein Energiebedarf von 564 Megawattstunden pro Tag.“ Für das Training des Sprachmodells GPT-3 waren im Vergleich dazu insgesamt „nur“ rund 1.287 Megawattstunden nötig.
Drei bis neun Wattstunden Strom pro Anfrage
Konkret bedeutet dies: Schon jetzt verbraucht jede einzelne Anfrage bei einem generativen KI-System je nach Schätzung zwischen drei und knapp neun Wattstunden Strom, wie de Vries berichtet. Doch allein ChatGPT hatte in den letzten Monaten mehr als 195 Millionen Anfragen pro Tag – Tendenz weiter steigend. „Angesichts der steigenden Nachfrage nach KI-gestützten Diensten ist es sehr wahrscheinlich, dass der Energieverbrauch durch künstliche Intelligenz in den nächsten Jahren signifikant zunehmen wird“, so der Forscher.
Aber wie stark? De Vries verdeutlicht dies am Beispiel von Google: Würde jede Suche bei Google in naher Zukunft über das KI-System BARD laufen, würden allein die Rechenzentren von Google pro Jahr 29,3 Terawattstunden Energie benötigen. Das ist etwa so viel wie der gesamte jährliche Stromverbrauch Irlands – und ziemlich genau die Energiemenge, die bisher für den Stromverbrauch der Krypto-Miner prognostiziert wurde.
KI könnte 2027 so viel Strom benötigen wie Schweden
Allerdings: Wegen der weltweiten Knappheit der für die KI benötigten Grafikprozessoren und der Kosten eines raschen Ausbaus der Datenzentren, wird sich das Wachstum der KI-Systeme verzögern. „Die Lieferketten für KI-Server werden noch einige Jahre lang ein Flaschenhals bleiben“, erklärt de Vries. Der Hauptlieferant für leistungsstarke Chips, das taiwanesische Unternehmen TSMC, baue zwar bereits eine weitere Fabrik, diese werde jedoch nicht vor 2027 fertiggestellt sein.
Ab dann könnte jedoch allein TSMC 1,5 Millionen neue KI-Servereinheiten pro Jahr liefern. Dazu kommen Grafikprozessoren aus dem Krypto-Mining, die nun für die KI umgerüstet werden. Aktuellen Schätzungen zufolge könnte der Einsatz der künstlichen Intelligenz im Jahr 2027 so stark zugenommen haben, dass die weltweiten KI-Rechenzentren zusammen zwischen 85 und 134 Terawattstunden Strom pro Jahr verbrauchen – das ist so viel wie der gesamte Jahresstrombedarf Schwedens, Argentiniens oder der Niederlande.
Effizientere Technik wird wenig ändern
Selbst die Entwicklung effizienterer KI-Systeme und Rechnertechnologien wird daran vermutlich nur wenig ändern: “Diese Fortschritte können einen Rebound-Effekt auslösen, indem eine erhöhte Effizienz zu einer verstärkten Nachfrage nach KI führt. Das würde die Ressourcennutzung insgesamt daher eher anwachsen lassen statt sie zu verringern“, erklärt de Vries. Denn wenn KI-Systeme sparsamer werden, macht sie dies auch günstiger und damit attraktiver.
“Wir sollten sorgfältig überlegen, für was wir künstliche Intelligenz einsetzen“, warnt der Forscher. „Diese Systeme sind enegieintensiv, daher sollten wir sie nicht in alles Mögliche stecken, wo sie eigentlich nicht nötig sind. Nicht immer wiegen die Vorteile die Kosten auf.“ (Joule, 2023; doi: 10.1016/j.joule.2023.09.004)
Quelle: Cell Press