Wissen
Blogs

Klimakillerin KI – was am Vorwurf dran ist und was nicht

Bild
bild: severin trösch
KI Kosmos

Klimakillerin KI – was am Vorwurf dran ist und was nicht

Künstliche Intelligenz verbraucht Energie – beim Training ebenso wie bei jeder Chat-Anfrage. Doch wie gross ist ihr CO₂-Fussabdruck in Bezug auf das Klima wirklich? Eine Einordnung zwischen Hype, Zahlen und Perspektive.
02.11.2025, 11:3402.11.2025, 11:34

Hunderte Millionen Menschen nutzen täglich KI-Chatbots. Um mit dieser Entwicklung Schritt zu halten, werden en masse Datacenter gebaut – und damit werden auch Stimmen immer lauter, welche die Klimafragen zur Künstlichen Intelligenz stellen: Wie viel Energie brauchen denn die KI-Systeme? In welche Richtung gehen die Trends? Oder pointierter: Was bedeutet dies fürs Klima? Lasst uns dies mal durchdenken.

Was hat KI überhaupt mit dem Klima zu tun?

Wenn ich eine Anfrage an einen KI-Chatbot stelle, kostet dies Energie – und zwar in zwei Stufen:

  1. Damit ich es nutzen kann, muss ein KI-Modell zuerst hergestellt – oder «trainiert» – werden. Dabei werden Milliarden von Datenpunkten während Monaten durchgerechnet. Dieser Prozess passiert in Rechenzentren, welche Strom und somit Energie brauchen. Je grösser und leistungsfähiger das trainierte KI-System, desto mehr.
  2. Wenn das KI-Modell fertig trainiert ist, kann ich als User meine Anfrage stellen. Die Berechnung der Antwort benötigt ebenfalls Computerressourcen und somit Energie. Je komplexer meine Anfrage, desto länger die Berechnungszeit – und desto grösser der Energieverbrauch.
Was ist ein Datacenter?
Ein Datacenter ist eine Einrichtung, in der tausende Server (Computer) rund um die Uhr Daten speichern und verarbeiten. Heutige KI-Modelle werden in spezialisierten Datenzentren trainiert und von dort aus den Usern zur Verfügung gestellt.

Die Energie für diese zwei Stufen kommt aus verschiedenen Quellen und ist je nach KI-Modell, Staat, Anbieter – und oft sogar zwischen Training und Nutzung des Modells – unterschiedlich. Typischerweise stammt aber ein signifikanter Teil des Energiemixes – in den USA gemäss einer Untersuchung aus dem Jahr 2024 beispielsweise über die Hälfte – von fossilen Energieträgern und verursacht somit indirekt CO2-Ausstoss. Zusammengefasst: Je mächtiger die KI-Modelle, die wir trainieren, und je zahlreicher und schwieriger die Fragen, die wir den Chatbots stellen, desto mehr CO₂-Emissionen verursachen diese. Es gibt also einen Impact von KI aufs Klima – doch wie gross ist dieser im Quervergleich?

Die Grössenordnung im Vergleich

Wie viel Energie die KI-Nutzung tatsächlich kostet, hängt von vielen Faktoren ab: Wie oft wird gefragt? Welches Modell? Wie schwierig sind die Fragen? Etc. Dazu kommt, dass genaue Nutzungs- und Verbrauchszahlen der Cutting-Edge-Modelle nicht direkt zugänglich sind. Um Quervergleiche anstellen zu können, müssen wir also einige Überschlagsrechnungen machen:

  • Eine durchschnittliche ChatGPT-Anfrage braucht gemäss Sam Altman von OpenAI ca. 0,34 Watt-Stunden Energie. Diese Grössenordnung deckt sich mit Berechnungen von EPFL-Professor Marcel Salathé.
  • Wie dargelegt, braucht nicht nur die Abfrage an ein KI-Modell, sondern auch dessen Herstellung Energie. Und zwar – wieder unterschiedlich nach Fall – einige Milliarden Watt-Stunden. Dieser Trainings-Energiebedarf verschwindet aber fast, wenn man ihn auf eine Anfrage runterbricht: Bei ca. 2,5 Milliarden täglichen und somit fast einer Billion jährlichen Anfragen ist der marginale Beitrag des Trainingsprozesses – auch wenn man jedes Jahr ein neues Modell trainiert – sehr, sehr klein.
  • Eine durchschnittliche, aktive Userin schickt etwa 20 Prompts pro Tag an ChatGPT – berechnet aus den rund 2,5 Milliarden Requests, die OpenAI täglich verarbeitet und den 100 bis 200 Millionen täglichen Userinnen.
  • Pro Jahr und Person ergäbe dies gut 7000 Anfragen – und somit knapp 3000 Watt-Stunden Energieverbrauch.

3 kWh pro Jahr also für eine «normale» Verwendung von ChatGPT. Für die gleiche Energie kann ich ... Achtung... einmal warm duschen. Oder eine Stunde lang die Wohnung heizen. Nicht nichts. Aber auch nicht gerade überwältigend.

Ein Jahr Chatbot-Use ergibt ungefähr eine warme Dusche.
Ein Jahr Chatbot-Use ergibt ungefähr eine warme Dusche.bild: severin trösch

Allerdings wollen wir ja nicht nur den Energieverbrauch schätzen, sondern auch den dadurch verursachten CO2-Ausstoss und so den Impact aufs Klima. Bei dieser Folgerechnung kommen weitere Variablen wie der Energiemix der Datacenter und die Emissionen pro Energiequelle komplizierend hinzu. Aber es gibt Zahlen: Gemäss einer neuen Studie ist der gesamte digitale Sektor der Schweiz – inklusive Endgeräten wie Smartphones, Laptops oder Tablets – aktuell für 2 Prozent des Schweizer CO2-Ausstosses verantwortlich. Die KI als relativ kleiner Teil davon für weniger als 0,1 Prozent (ein Viertel des Verbrauchs im Digitalsektor kommt von Datacentern und diese sind zu 14 Prozent durch KI ausgelastet, so die Studie). Vernachlässigbar. Zumindest im Moment.

Zur Person
Severin Trösch ist der Kopf hinter der künstlichen Intelligenz bei der Datahouse AG – einer Firma, die alles mit Daten macht und fast alles davon kann. Die Komplexität hinter der KI hat ihn nicht nur seine letzten Haare gekostet, sondern auch motiviert, das KI-Kauderwelsch so zu erklären, dass auch Nicht-Nerds den Durchblick kriegen.
Severin Trösch

Zukünftige Nutzung und Forschung

Aktuell ist der KI-Impact aufs Klima – sowohl pro Person als auch total – also noch nicht sehr relevant. Die Frage stellt sich aber natürlich, wie es denn weitergeht. Die Userzahlen der KI-Chatbots wachsen nämlich rapide: ChatGPT allein zählte Anfang 2025 beispielsweise 400 Millionen wöchentliche User. Jetzt, gegen Ende 2025, sind es schon rund 800 Millionen und OpenAI zielt angeblich auf 1 Milliarde per Ende Jahr ab. Dazu werden die Modelle selbst immer energieintensiver, da sie schrittweise Antworten berechnen (sog. «Reasoning» Modelle) oder neben Text auch Bilder und sogar Videos produzieren.

Und damit noch nicht genug: Was nämlich, wenn plötzlich nicht mehr Menschen, sondern KI-Systeme selbst die meisten KI-Anfragen stellen? KI-Agenten zum Beispiel, die andere KI-Tools aufrufen und eigenständig Aufgaben ausführen – und dies viel schneller und öfter als die Menschen? Je nach Szenario könnte sich so die Anzahl Anfragen ins schier Unermessliche steigern. Auch ohne nun spekulative Zahlenbeispiele durchzurechnen, lässt sich Folgendes aussagen: Es wird wegweisend sein, wie sich der Energiebedarf aufgrund zunehmender Verbreitung und Autonomisierung von KI-Agenten, die selbstständig KI-Anfragen stellen, entwickelt.

Und was ist mit dem Wasserverbrauch?
Datacenters brauchen nicht nur Energie, sondern auch Wasser – einerseits zur Kühlung der Server, andererseits indirekt bei der Stromerzeugung. Der Wasserverbrauch verursacht zwar kein CO2, kann aber lokale Wasserknappheit verschärfen. Diese zusätzliche Belastung für die Wasserverfügbarkeit hat langfristig ökologische und gesellschaftliche Auswirkungen, da die Nachfrage nach Wasser sowohl für die Industrie als auch für die Bevölkerung steigt.

Aber mehr und intelligentere KI ist nicht nur schlecht fürs Klima. Je intelligenter nämlich die KI-Systeme, desto mehr helfen sie uns bei der Klimaforschung und so bei der Entwicklung von klimafreundlicher Technologie. Beispielsweise, indem sie Klimasimulationen effizienter machen (wie das GraphCast-System von Google DeepMind) oder Emissionsquellen in Echtzeit identifizieren (wie im Projekt Climate TRACE). Dazu kommt, dass potenziell auch die Sektoren, welche aktuell für den Löwenanteil des CO2-Ausstosses verantwortlich sind, durch KI-unterstützte Forschung und Entwicklung effizienter gemacht werden können.

Und jetzt? Drei Takeaways

Die KI verursacht also indirekt CO2 – und verhindert dieses auch. Sie ist gut und schlecht für das Klima. Klimakillerin und Klimaretterin gleichzeitig. Und beides wird potenziell in Zukunft noch verstärkt. Na wunderbar! Lasst uns trotz dieses Zwiespaltes einige Erkenntnisse festhalten, an welchen wir uns orientieren können:

  • Impact aktuell vernachlässigbar: Der CO2-Fussabdruck der KI-Nutzung ist aktuell sehr klein. Grübeln wir also nicht zu lange, ob wir KI-Chatbots dem Klima zuliebe weiter brauchen sollen, sondern duschen lieber einmal pro Jahr kalt.
  • Weitere Entwicklung wegweisend: Wenn wir alle bald hunderte KI-Agenten kommandieren und diese im Sekundentakt Anfragen an andere KI-Modelle stellen, dann wird der KI-verursachte CO2-Ausstoss plötzlich relevant. Sehen wir also zu, dass wir autonome Agenten strategisch klug und vor allem da brauchen, wo sie uns Nutzen bringen – beispielsweise in der Forschung.
  • Energiequellen entscheidend: Der Energieverbrauch der Datacenter per se ist nicht das Problem, sondern das dadurch verursachte CO2. Würden wir es hinkriegen, dass Datacenter CO2-freie Energie konsumieren, dann hätten wir die Intelligenz ohne die Klimakosten. In diese Richtung sollten wir pushen.

Mit diesen Punkten im Hinterkopf sollten wir uns an der wichtigen Diskussion zu unserer KI-Zukunft beteiligen. Umso mehr, weil das Klima rund ums Thema KI langsam heiss wird – buchstäblich und metaphorisch.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
1 / 37
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
Ein KI-generierter Trump beim Zubereiten der Urwalddroge Ayahuasca.
Auf Facebook teilenAuf X teilen
Mit wenigen Klicks zum Deep Fake
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
64 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Sam1984
02.11.2025 12:07registriert Dezember 2014
Bin mit dem Artikel nicht einverstanden.

Bei 1 Billion Anfragen und 0,34 Wattstunden sind das pro Jahr 340 Gigawattstunden. Und das ist nur Chatgpt, es gibt aber noch viele andere Modelle und Services.

Das Training der Modelle kostet hunderte Megawattstunden und was der Autor nicht erwähnt ist, dass ein Modell nicht nur am Anfang trainiert wird, sondern fortlaufend weiter trainiert wird um es zu verbessern.
643
Melden
Zum Kommentar
avatar
s'Paddiesli
02.11.2025 12:16registriert Mai 2017
Allein Zuckerberg will für seine KI ein AKW auf Green Mile Island bauen, und ein Datencenter von der Grösse Manhattans bauen.
Sogar von Kohle ist wieder die Rede.

Amazon baut über 500'000 Arbeitsplätze ab. Bei UPS sind's 48'000.
KI steht immer noch am Anfang.

Ich bin mehr als besorgt.
363
Melden
Zum Kommentar
64
Mit diesen Produkten löst du dich von US-Techkonzernen und anderen Demokratie-Feinden
Europa muss sich aus seiner gefährlichen Abhängigkeit vom Silicon Valley befreien und die digitale Souveränität erlangen. Ein Ratgeber für Konsumentinnen und Konsumenten. Teil 2.
Neutralität hin oder her: Auch die Schweiz sollte sich aus ihrer gefährlichen Abhängigkeit vom Silicon Valley befreien und die digitale Souveränität erlangen.
Zur Story