Künstliche Intelligenz gilt als Meilenstein der Digitalisierung – doch mit steigender Rechenleistung wächst auch der Ressourcenbedarf. Besonders Large Language Models (kurz LLMs) wie ChatGPT, Gemini oder DeepSeek wird vorgeworfen, Stromfresser zu sein. Wie hoch ist der tatsächliche Energieverbrauch? Wo entstehen die größten Belastungen – und wo lassen sich Emissionen vermeiden? Wir haben genauer hingeschaut.

Training von LLMs wird physikalische Grenze erreichen

Die Entwicklung großer LLMs ist buchstäblich ein Kraftakt. Monatelanges Training auf Hochleistungsrechnern verschlingt gewaltige Energiemengen. Eine Meta-Studie des Öko-Instituts im Auftrag von Greenpeace schlägt Alarm: Wenn sich der Trainingsaufwand bis 2030 weiter alle fünf Monate verdoppelt, steigt auch der Energieverbrauch exponentiell.

Die Internationale Energieagentur (IEA) hat etwas weiter in die Zukunft geschaut und dabei verschiedene Szenarien geprüft. Demnach könnte die Kurve ab 2028 abflachen und ab 2030 könnten Emissionen von Rechenzentren im mittleren Szenario sogar sinken, sofern Effizienzgewinne, der Ausbau erneuerbarer Energien und neue Kühltechnologien genutzt werden. Ein weiterer Grund für die Annahme eines wieder sinkenden Energiehungers ist, dass KI-Training einer Grenze unterliegt, denn Trainingsdaten sind keine unerschöpfliche Ressource. Laut Berechnungen von Epoch.ai könnten die verfügbaren Daten zwischen 2027 und 2032 ausgeschöpft sein – ein Wachstumsende wäre demnach absehbar.

Kosten „Bitte“ und „Danke“ zu viel Energie?

Nicht nur das Training, auch der Betrieb von KI-Anwendungen kostet Energie. 2,9 Wattstunden pro Anfrage bei ChatGPT – fast zehnmal so viel wie bei einer Google-Suche - ist eine Relation, die man schnell findet. Diese Zahl ist allerdings nicht mehr ganz neu. Aktuelle Modelle wie GPT-4o arbeiten deutlich effizienter: Epoch.ai, ein KI-freundlicher Think-Tank, geht nur noch von rund 0,3 Wh pro 1.000 Tokens aus. Der Fortschritt liege in effizienterer Hardware und optimierten Modellen. Allerdings kann dies nur für Anfragen gelten, die LLMs selbst beantworten. Sobald zusätzlich das Internet durchsucht wird, ist es naheliegend, dass der Energieaufwand höher ist als bei einer einzelnen Suchmaschinenanfrage - einer klassischen Suchmaschinenanfrage wohlgemerkt, denn Google bietet inzwischen ungefragt KI-generierte Zusammenfassungen zusätzlich zu Suchergebnissen an.

Übrigens: Wer „bitte“ und „danke“ auslässt, spart je ein Token und tatsächlich sehr marginal auch Energie. Die im Umgang mit Menschen erlernte Höflichkeit bei der AI wegzulassen ist dennoch eher eine Frage der Einstellung als eine des Ressourcenschutzes. Schon mehr Effekt hat dagegen auf die Rechtschreibung zu achten, denn jeder Tippfehler führt potenziell zu schlechteren Ergebnissen. Am effektivsten kann aber ein gut gestellter Prompt mit allen wichtigen Informationen zu relevantem Kontext und zum erwarteten Format des Ergebnisses gelten. Der vermeidet Folgefragen, senkt dadurch den Verbrauch und spart nicht nur Strom, sondern auch Zeit bei der Arbeit mit KI.

Lokal vs. API: Rechnet sich eigenes Hosting?

Wenn man nun aber ein offenes KI-Modell auf eigenem Server mit Ökostrom hostet, dann ist es doch klimaneutral, zumindest deutlich klimafreundlicher? Klingt charmant, ist es auch. In der Praxis gilt jedoch einiges zu beachten.

Zunächst kommt - auch wenn der Hoster 100% Ökostrom einkauft - der reale Strom in der Regel aus dem nationalen Strommix mit seinem in Deutschland immer noch recht hohen Anteil an CO₂-Emissionen. Kauft der Hostinganbieter ausschießlich Ökostrom ein, hilft das natürlich, daran etwas zu ändern. Real emissionsfrei wäre allerdings nur Strom aus dem eigenen Wasserkraftwerk oder Kombikraftwerk aus Solar, Wind und Batterie. Das kann aber derzeit kein Hoster in Deutschland bieten. Der KI-Anbieter Mistral setzt statt dessen auf Rechenzentren in Frankreich, wo der Strommix klimatechnisch deutlich besser aussieht als in Deutschland - durch einen hohen Anteil Atomstrom. Solange es keinen wirklich sauberen Strom im Angebot gibt, sollte einem also der Stromverbrauch nicht völlig egal sein, schon aus Ressourcengründen.

Laut dem Carbon-Footprint-Modell von Boris Ruf gibt es zudem erhebliche Unterschiede bei beim Stromverbrauch zwischen den KI Modellen, auch in Abhängigkeit von deren Auslastung. Laut diesem Rechner verursacht die Verarbeitung von 10 Mio. Token (bei Betrieb mit schwedischem Strommix) bei Mistral small rund 200g CO₂, bei Mistral Large und OpenAI GPT 4.o jeweis rund 1 kg CO₂ während Claude 3 Opus mit 600kg CO₂ komplett den Rahmen sprengt.

Daher gilt: Aus Umweltgründen auf selbst betriebene KI zu setzen, kann sinnvoll sein, wenn sie mit einem energieeffizienten Modell wie z.B. Mistral small arbeitet. Datenschutz und Anbieterunabhängigkeit liefern weitere Argumente für einen lokalen Betrieb. Auch dass die APIs der Anbieter eine Einbettung in die Prozesse unserer Kunden nicht ermöglichen, kann ein Grund sein. Manchmal ist es umgekehrt notwendig, die APIs großer KI-Anbieter zu nutzen, wenn die Fähigkeiten lokal installierbarer offener KI-Modelle für bestimmte Aufgaben nicht ausreichen. Hierbei sollte ebenso auf Energeieffizienz des Modells und auf den Serverstandort geachtet werden.

Text, Sprache, Video: Der Datentyp macht den Unterschied

Nicht jede KI-Nutzung ist gleich rechenintensiv. Textanfragen sind vergleichsweise genügsam. Auch Spracheingabe kann recht datensparsam sein - vorausgesetzt es wird die im Betriebssystem eingebaute Spracherkennung genutzt, die die Eingabe lokal in Text übersetzt. Sprachausgabe und die Verarbeitung von Bildern benötigt schon deutlich mehr Rechenleistung, und Bewegtbild toppt alles, auch ohne KI. Ein 10-minütiges, ohne KI generiertes Erklärvideo bei YouTube anzusehen könnte also mehr Energie verbrauchen als ein 10-minütiger textbasierter Dialog mit einem LLM. Alles ist relativ.

Infrastruktur: Mehr als nur Strom

Rechenzentren brauchen nicht nur Strom – sondern auch Fläche, Wasser zur Kühlung und Hardware. Besonders bei der Herstellung von GPUs und Servern entstehen Umweltbelastungen durch Bergbau für seltene Erden und energieintensive Produktionsprozesse. Hinzu kommt: Die Nutzungsdauer ist oft kurz. Schnellere Chips machen alte Hardware ineffizient – und zu Elektroschrott. Das ist ein Problem. 

Allerdings ist der Weiterbetrieb veralteter Hardware nicht immer die beste Alternative. Neue Chips sind meist leistungsfähiger und dadurch sparsamer. Wer veraltete Technik zu lange betreibt, verschlechtert also unter Umständen sogar die Umweltbilanz. Wer Ressourcen schonen will, sollte neue Hardware gezielt und bewusst einsetzen. Wichtiger ist es hingegen, auf Rechenzentren zu achten, die möglichst wenig zusätzliche Energie für die Kühlung benötigen, die effizient mit Fläche umgehen, Abwärme idealerweise nachnutzen und die vor allem mit Strom aus erneuerbaren Energien betrieben werden.

Unser Fazit

KI hat einen direkten Einfluss auf unsere natürlichen Ressourcen und das Klima. Einen bewussten und verantwortungsvollen Umgang haben wir vor diesem Hintergrund für uns so definiert:

  • Wir fokussieren uns beim Einsatz von KI-Modellen auf Textverarbeitung - nicht nur aus energetischen Gründen.
  • Wir setzen wo möglich auf offene (Open Weights) und von uns gehostete Modelle, die wir in Rechenzentren betreiben, die mit grüner Energie, effektiver Kühlung und einem langen Hardware-Lifecycle arbeiten.
  • Wo selbstgehostete Modelle nicht ausreichen, präferieren wir Anbieter, die insgesamt - also beim Training wie im Betrieb - den kleinstmöglichen Carbon Footprint aufweisen.

In Ermangelung besserer Optionen müssen wir dabei manchmal Kompromisse machen. Im Zweifel betrachten wir bei Anbietern das Betreiben mit Atomstrom als das kleinere Übel gegenüber einem Strombezug aus Kohlekraftwerken (auch wenn dieser durch Zertifikate manchmal "aufgebessert" wird).

Auch würden wir uns von unserem Standard-Hostingpartner mehr Innovationsfreude bei Flächenverbrauch und Abwärme wünschen. Dafür haben dessen mit 100% Erneuerbaren Energien versorgten Server aber immerhin eine durchschnittliche Lebensspanne von acht Jahren, die an bis zu 358 Tagen im Jahr ohne Wasser für die aktive Kühlung auskommen.