Klimakillerin KI – was am Vorwurf dran ist und was nicht
Hunderte Millionen Menschen nutzen täglich KI-Chatbots. Um mit dieser Entwicklung Schritt zu halten, werden en masse Datacenter gebaut – und damit werden auch Stimmen immer lauter, welche die Klimafragen zur Künstlichen Intelligenz stellen: Wie viel Energie brauchen denn die KI-Systeme? In welche Richtung gehen die Trends? Oder pointierter: Was bedeutet dies fürs Klima? Lasst uns dies mal durchdenken.
Was hat KI überhaupt mit dem Klima zu tun?
Wenn ich eine Anfrage an einen KI-Chatbot stelle, kostet dies Energie – und zwar in zwei Stufen:
- Damit ich es nutzen kann, muss ein KI-Modell zuerst hergestellt – oder «trainiert» – werden. Dabei werden Milliarden von Datenpunkten während Monaten durchgerechnet. Dieser Prozess passiert in Rechenzentren, welche Strom und somit Energie brauchen. Je grösser und leistungsfähiger das trainierte KI-System, desto mehr.
- Wenn das KI-Modell fertig trainiert ist, kann ich als User meine Anfrage stellen. Die Berechnung der Antwort benötigt ebenfalls Computerressourcen und somit Energie. Je komplexer meine Anfrage, desto länger die Berechnungszeit – und desto grösser der Energieverbrauch.
Die Energie für diese zwei Stufen kommt aus verschiedenen Quellen und ist je nach KI-Modell, Staat, Anbieter – und oft sogar zwischen Training und Nutzung des Modells – unterschiedlich. Typischerweise stammt aber ein signifikanter Teil des Energiemixes – in den USA gemäss einer Untersuchung aus dem Jahr 2024 beispielsweise über die Hälfte – von fossilen Energieträgern und verursacht somit indirekt CO2-Ausstoss. Zusammengefasst: Je mächtiger die KI-Modelle, die wir trainieren, und je zahlreicher und schwieriger die Fragen, die wir den Chatbots stellen, desto mehr CO₂-Emissionen verursachen diese. Es gibt also einen Impact von KI aufs Klima – doch wie gross ist dieser im Quervergleich?
Die Grössenordnung im Vergleich
Wie viel Energie die KI-Nutzung tatsächlich kostet, hängt von vielen Faktoren ab: Wie oft wird gefragt? Welches Modell? Wie schwierig sind die Fragen? Etc. Dazu kommt, dass genaue Nutzungs- und Verbrauchszahlen der Cutting-Edge-Modelle nicht direkt zugänglich sind. Um Quervergleiche anstellen zu können, müssen wir also einige Überschlagsrechnungen machen:
- Eine durchschnittliche ChatGPT-Anfrage braucht gemäss Sam Altman von OpenAI ca. 0,34 Watt-Stunden Energie. Diese Grössenordnung deckt sich mit Berechnungen von EPFL-Professor Marcel Salathé.
- Wie dargelegt, braucht nicht nur die Abfrage an ein KI-Modell, sondern auch dessen Herstellung Energie. Und zwar – wieder unterschiedlich nach Fall – einige Milliarden Watt-Stunden. Dieser Trainings-Energiebedarf verschwindet aber fast, wenn man ihn auf eine Anfrage runterbricht: Bei ca. 2,5 Milliarden täglichen und somit fast einer Billion jährlichen Anfragen ist der marginale Beitrag des Trainingsprozesses – auch wenn man jedes Jahr ein neues Modell trainiert – sehr, sehr klein.
- Eine durchschnittliche, aktive Userin schickt etwa 20 Prompts pro Tag an ChatGPT – berechnet aus den rund 2,5 Milliarden Requests, die OpenAI täglich verarbeitet und den 100 bis 200 Millionen täglichen Userinnen.
- Pro Jahr und Person ergäbe dies gut 7000 Anfragen – und somit knapp 3000 Watt-Stunden Energieverbrauch.
3 kWh pro Jahr also für eine «normale» Verwendung von ChatGPT. Für die gleiche Energie kann ich ... Achtung... einmal warm duschen. Oder eine Stunde lang die Wohnung heizen. Nicht nichts. Aber auch nicht gerade überwältigend.
Allerdings wollen wir ja nicht nur den Energieverbrauch schätzen, sondern auch den dadurch verursachten CO2-Ausstoss und so den Impact aufs Klima. Bei dieser Folgerechnung kommen weitere Variablen wie der Energiemix der Datacenter und die Emissionen pro Energiequelle komplizierend hinzu. Aber es gibt Zahlen: Gemäss einer neuen Studie ist der gesamte digitale Sektor der Schweiz – inklusive Endgeräten wie Smartphones, Laptops oder Tablets – aktuell für 2 Prozent des Schweizer CO2-Ausstosses verantwortlich. Die KI als relativ kleiner Teil davon für weniger als 0,1 Prozent (ein Viertel des Verbrauchs im Digitalsektor kommt von Datacentern und diese sind zu 14 Prozent durch KI ausgelastet, so die Studie). Vernachlässigbar. Zumindest im Moment.
Zukünftige Nutzung und Forschung
Aktuell ist der KI-Impact aufs Klima – sowohl pro Person als auch total – also noch nicht sehr relevant. Die Frage stellt sich aber natürlich, wie es denn weitergeht. Die Userzahlen der KI-Chatbots wachsen nämlich rapide: ChatGPT allein zählte Anfang 2025 beispielsweise 400 Millionen wöchentliche User. Jetzt, gegen Ende 2025, sind es schon rund 800 Millionen und OpenAI zielt angeblich auf 1 Milliarde per Ende Jahr ab. Dazu werden die Modelle selbst immer energieintensiver, da sie schrittweise Antworten berechnen (sog. «Reasoning» Modelle) oder neben Text auch Bilder und sogar Videos produzieren.
Und damit noch nicht genug: Was nämlich, wenn plötzlich nicht mehr Menschen, sondern KI-Systeme selbst die meisten KI-Anfragen stellen? KI-Agenten zum Beispiel, die andere KI-Tools aufrufen und eigenständig Aufgaben ausführen – und dies viel schneller und öfter als die Menschen? Je nach Szenario könnte sich so die Anzahl Anfragen ins schier Unermessliche steigern. Auch ohne nun spekulative Zahlenbeispiele durchzurechnen, lässt sich Folgendes aussagen: Es wird wegweisend sein, wie sich der Energiebedarf aufgrund zunehmender Verbreitung und Autonomisierung von KI-Agenten, die selbstständig KI-Anfragen stellen, entwickelt.
Aber mehr und intelligentere KI ist nicht nur schlecht fürs Klima. Je intelligenter nämlich die KI-Systeme, desto mehr helfen sie uns bei der Klimaforschung und so bei der Entwicklung von klimafreundlicher Technologie. Beispielsweise, indem sie Klimasimulationen effizienter machen (wie das GraphCast-System von Google DeepMind) oder Emissionsquellen in Echtzeit identifizieren (wie im Projekt Climate TRACE). Dazu kommt, dass potenziell auch die Sektoren, welche aktuell für den Löwenanteil des CO2-Ausstosses verantwortlich sind, durch KI-unterstützte Forschung und Entwicklung effizienter gemacht werden können.
Und jetzt? Drei Takeaways
Die KI verursacht also indirekt CO2 – und verhindert dieses auch. Sie ist gut und schlecht für das Klima. Klimakillerin und Klimaretterin gleichzeitig. Und beides wird potenziell in Zukunft noch verstärkt. Na wunderbar! Lasst uns trotz dieses Zwiespaltes einige Erkenntnisse festhalten, an welchen wir uns orientieren können:
- Impact aktuell vernachlässigbar: Der CO2-Fussabdruck der KI-Nutzung ist aktuell sehr klein. Grübeln wir also nicht zu lange, ob wir KI-Chatbots dem Klima zuliebe weiter brauchen sollen, sondern duschen lieber einmal pro Jahr kalt.
- Weitere Entwicklung wegweisend: Wenn wir alle bald hunderte KI-Agenten kommandieren und diese im Sekundentakt Anfragen an andere KI-Modelle stellen, dann wird der KI-verursachte CO2-Ausstoss plötzlich relevant. Sehen wir also zu, dass wir autonome Agenten strategisch klug und vor allem da brauchen, wo sie uns Nutzen bringen – beispielsweise in der Forschung.
- Energiequellen entscheidend: Der Energieverbrauch der Datacenter per se ist nicht das Problem, sondern das dadurch verursachte CO2. Würden wir es hinkriegen, dass Datacenter CO2-freie Energie konsumieren, dann hätten wir die Intelligenz ohne die Klimakosten. In diese Richtung sollten wir pushen.
Mit diesen Punkten im Hinterkopf sollten wir uns an der wichtigen Diskussion zu unserer KI-Zukunft beteiligen. Umso mehr, weil das Klima rund ums Thema KI langsam heiss wird – buchstäblich und metaphorisch.
- Apertus oder nicht? Was für und was gegen Open-Source-KI spricht
- Wie und wann die KI die Macht übernehmen kann – und unsere Optionen
- Wieso uns die KI anlügt – und warum dies nicht nur schlecht ist
- Die KI-Landkarte – eine Orientierungshilfe im Buzzword-Dschungel
- Sorgt die KI wirklich für ein «Job-Blutbad»?
- Die Lizenz zum Arbeiten: KI-Agenten und was sie mit James Bond zu tun haben
