Künstliche Intelligenz gilt als Meilenstein der Digitalisierung – doch mit steigender Rechenleistung wächst auch der Ressourcenbedarf. Besonders Large Language Models (kurz LLMs) wie ChatGPT, Gemini, DeepSeek und Co. stehen im Verdacht, Stromfresser zu sein. Wie hoch ist der tatsächliche Energieverbrauch? Wo entstehen die größten Belastungen – und wo lassen sich Emissionen vermeiden? Wir haben die Fakten geprüft.

Training von LLMs wird physikalische Grenze erreichen

Die Entwicklung großer LLMs ist buchstäblich ein Kraftakt. Das monatelange Training auf Hochleistungsrechnern verschlingt gewaltige Energiemengen. Eine Meta-Studie des Öko-Instituts im Auftrag von Greenpeace schlägt Alarm: Wenn sich der Trainingsaufwand weiter alle fünf Monate verdoppelt, droht eine exponentielle Zunahme des Energieverbrauchs.

Diese Prognose beruht jedoch auf einer Trendfortschreibung bis 2030. Die Internationale Energieagentur (IEA) hat etwas weiter in die Zukunft geschaut und dabei verschiedene Szenarien geprüft. Demnach könnte die Kurve ab 2028 abflachen und ab 2030 könnten Emissionen von Rechenzentren und im mittleren Szenario sogar sinken, wenn Effizienzgewinne, der Ausbau erneuerbarer Energien und neue Kühltechnologien genutzt werden. Ein weiterer Grund für die Annahme eines wieder sinkenden Energiehungers ist, dass KI-Training einer Grenze unterliegt, denn Trainingsdaten sind keine unerschöpfliche Ressource. Laut Berechnungen von Epoch.ai könnten die verfügbaren Daten zwischen 2027 und 2032 ausgeschöpft sein – das Wachstumsende wäre also absehbar.

„Bitte und Danke“ kosten Energie

Nicht nur das Training, auch der Betrieb von KI-Anwendungen kostet Energie. Angeblich 2,9 Wattstunden pro Anfrage bei ChatGPT – fast zehnmal so viel wie bei einer Google-Suche ist eine Relation, die man schnell findet. Diese Zahl ist allerdings nicht mehr ganz neu. Aktuelle Modelle wie GPT-4o arbeiten deutlich effizienter: nur noch rund 0,3 Wh pro 1.000 Tokens hat Epoch.ai gemessen, ein KI-freundlicher Think-Tank. Der Fortschritt liege in effizienterer Hardware und optimierten Modellen. Allerdings kann dies nur für Anfragen gelten, die LLMs an sich selbst stellen. Sobald zusätzlich das Internet durchsucht wird, ist es naheliegend, dass der Energieaufwand tendentiell höher sein muss als der einer einzelnen Suchmaschinenanfrage - einer klassischen Suchmaschinenanfrage wohlgemerkt, denn Google bietet ja inzwischen ungefragt von seiner KI generierte Informationen zusätzlich zu Suchergebnissen an.

Übrigens: Wer präzise fragt, „bitte und danke“ auslässt, sowie auf die eigene Rechtschreibung achtet, spart gar nicht mal so wenig Energie. Vor allem ein gut gestellter Prompt mit allen wichtigen Informationen zu relevantem Kontext und zum erwarteten Format des Ergebnisses vermeidet Folgefragen – das senkt den Verbrauch.

Lokal vs. API: Rechnet sich das lokale Hosting?

Die Idee klingt charmant: eigene KI-Modelle lokal hosten, mit Ökostrom betreiben – und so klimafreundlicher arbeiten. In der Praxis ist auch diese Situation – wie angenommen – ein wenig komplexer.

Beispiel: Das Modell LLaMA-2-13B auf einem deutschen Server, der mit Ökostrom betrieben wird. Gemessen wurde ein Verbrauch von ca. 0,58 Wh pro 1.000 Tokens – etwa doppelt so viel wie bei GPT-4o. Theoretisch klimaneutral dank Ökostrom? Nicht ganz. Auch Ökostrom aus dem deutschen Netz bleibt Teil des allgemeinen Strommixes mit seinem CO₂-Anteil.

Noch gravierender: Laut Carbon-Footprint-Modell von Boris Ruf verursacht lokal betriebene KI – selbst mit grünem Strom – bis zu sechsmal mehr Emissionen als effizient gehostete Modelle etwa bei Mistral, betrieben in französischen oder schwedischen Rechenzentren mit Wasser- und Atomkraft.

Daher gilt: Alleine aus Umweltgründen auf lokale KI zu setzen, ist nicht sinnvoll. Wir tun es dennoch, wenn es aufgrund von Aspekten wie Datenschutz oder Anbeiterunabhängkeit notwendig ist oder die APIs der Anbieter eine Einbettung in die Prozesse unserer Kunden nicht ermöglichen. Grundsätzlich ist die Nutzung effizient gehosteter KI-Services über deren APIs ökologisch deutlich sinnvoller.

Text, Sprache, Video: Der Datentyp macht den feinen Unterschied

Nicht jede Nutzung ist gleich datenintensiv. Textanfragen sind vergleichsweise genügsam. Auch die Spracheingabe kann recht datensprasam sein, allerdings nur dann, wenn dafür die im Betriebssystem eingebaute Spracherkennung genutzt wird. Sprachausgabe und die Verarbeitung von Bildern benötigt schon deutlich mehr Rechenleistung, und Bewegtbild toppt alles, auch ohne KI. Mir ein 10-minütiges ohne KI generiertes Erklärvideo bei YouTube anzusehen kann also deutlich mehr Energie verbrauchen als ein 10-minütiger textbasierter Dialog mit einer KI. Alles ist relativ.

Infrastruktur: Mehr als nur Strom

Rechenzentren brauchen nicht nur Strom – sondern auch Fläche, Wasser zur Kühlung und Hardware. Besonders bei der Herstellung von GPUs und Servern entstehen Umweltbelastungen durch Bergbau, seltene Erden und energieintensive Produktionsprozesse. Hinzu kommt: Die Nutzungsdauer ist oft kurz. Schnellere Chips machen alte Hardware ineffizient – und zu Elektroschrott. Das ist ein Problem. 

Allerdings ist der Weiterbetrieb veralteter Hardware nicht immer die beste Alternative. Neue Chips sind manchmal nicht nur leistungsfähiger, sondern auch sparsamer. Wer veraltete Technik zu lange betreibt, verschlechtert unter Umständen sogar die Umweltbilanz. Wer Ressourcen schonen will, sollte neue Hardware gezielt und bewusst einsetzen – wichtiger ist auf effiziente Rechenzentren zu achten, die möglichst wenig zusätzliche Energie für die Kühlung benötigen, die effizient mit Fläche umgehen, Abwärme idealerweise nachnutzen und die vor allem mit Strom aus Erneuerbaren Energien betrieben werden.

Fazit

KI hat einen direkten Einfluss auf unsere natürlichen Ressourcen und das Klima. Wir wünschen uns daher Labels für Rechenzentren und Transparenzpflichten für KI-Anbietende. Für uns habe wir als bewussten und verantwortungsvollen Umgang definiert:

  • Wir fokussieren beim Einsatz von KI-Modellen auf Textverarbeitung. Nicht nur aus energetischen Gründen, auch aus ästhetischen.
  • Wir setzen wo möglich auf Open Source und von uns gehostete Modelle, die wir in Rechenzentren betreiben können, die mit grüner Energie, effektiver Kühlung und einem langen Hardware-Lifecycle arbeiten.
  • Wo selbstgehostete Modelle nicht ausreichen präferieren wir Anbieter, die insgesamt also beim Training wie im Betrieb den niedrigstmöglichen Carbon Footprint aufweisen.

Leider müssen wir in Ermangelung besserer Optionen manchmal Kompromisse machen. Im Zweifel betrachten wir daher bei Anbietern von LLM Atomstrom das kleinere Übel gegenüber einem Strombezug aus Kohlekraftwerken (auch wenn dieser durch Zertifikate manchmal "aufgebessert" wird). Auch würden wir uns von unserem Standard-Hostingpartner mehr Innovationsfreude bei Flächenverbrauch und Abwärme wünschen. Dafür haben dessen mit 100% Wasserkraft versorgten Server aber immerhin eine durchschnittliche Lebensspanne von acht Jahren und benötigen an rekordverdächtigen 358 Tagen im Jahr keinen Strom für die aktive Kühlung.