Digital
Energie

KI-Tool zeigt, wie viel Strom KI-Anfragen konkret verbrauchen

Technikerin in Rechenzentrum (Symbolbild)
Technikerin in einem Rechenzentrum: Generative KI benötigt ziemlich viel Energie.Bild: imago-images.de

Dieses Tool zeigt, wie viel Strom deine KI-Anfragen verbrauchen

Selbst einfache Wörter wie «bitte» oder «danke» treiben den Energieverbrauch von KI-Chatbots in die Höhe. Ein praktisches Tool ermöglicht den Vergleich mehrerer bekannter Sprachmodelle.
01.05.2025, 19:2001.05.2025, 19:20
Mehr «Digital»

Ein neues Online-Tool lässt Interessierte den Stromverbrauch diverser KI-Sprachmodelle quasi in Echtzeit verfolgen und miteinander vergleichen.

Das Tool stammt von Hugging Face (dazu unten mehr) und kann frei ausprobiert werden. Wobei wir an dieser Stelle betonen müssen, dass gratis nicht kostenlos ist. Denn jede KI-Abfrage beansprucht die hochgerüsteten Server in den Rechenzentren der Techkonzerne.

Worum geht's?

So sieht die Benutzeroberfläche aus

KI-Tool Chat UI Energy zeigt Stromverbrauch von KI-Anfragen
Im Kleingedruckten steht, dass KI-generierte Inhalt mit Vorsicht zu geniessen sei. Dieser könne ungenau oder falsch sein.Screenshot: watson

Zu den online vergleichbaren Anbietern, respektive KIs, gehört auch ein Large Language Model (LLM) namens Llama 3.3, das der Meta-Konzern als Open-Source-Projekt vermarktet und weltweit frei anbietet. Mit genau dieser Technik findet in Bundesbern derzeit ein Pilotprojekt statt, das den Mitgliedern der Landesregierung ermöglichen soll, eigene KI-Erfahrungen zu sammeln.

Der entsprechende KI-Pilotversuch läuft in einem Rechenzentrum des Bundes. Wo will das zuständige Bundesamt für Informatik (BIT) nicht verraten.

Ob die sieben Bundesrätinnen und Bundesräte wissen, wie viel Strom ihre KI-Anfragen verbrauchen? Nehmen wir zum Beispiel an, der für KI-Belange zuständige Magistrat Albert Rösti wünschte sich vom Chatbot das Rezept für einen feinen Cheesecake.

Für die Beantwortung des kulinarischen Wunsches würde die KI ungefähr 0.3369 Wattstunden (Wh) Strom verbrauchen, wie das Tool von Hugging Face vorrechnet. Das entspreche 1,7 Prozent der Energiemenge, die das Aufladen eines Handy-Akkus benötigt (19 Wh).

Wo ist das Problem?

Generative KI ist ein Stromfresser. Doch der Teufel steckt im Detail, was wahrscheinlich viele Nutzerinnen und Nutzer von ChatGPT und Co. nicht wissen.

Laut Schätzungen der Internationalen Energieagentur (IEA) verbraucht eine einzelne ChatGPT-Anfrage fast zehnmal so viel Strom wie eine typische Google-Suche: 2,9 Wattstunden gegenüber 0,2 Wattstunden. Diese Angabe muss inzwischen jedoch infrage gestellt werden, da die grossen Sprachmodelle deutlich effizienter funktionieren und weniger Rechenleistung erfordern.

Das US-Unternehmen Hugging Face stellt Dritten die technische Infrastruktur zur Verfügung, um künstliche Intelligenz (KI) in Live-Anwendungen zu demonstrieren, auszuführen und einzusetzen. Hugging Face wird auch als das GitHub des Machine Learning bezeichnet, weil es Entwicklern ermöglicht, ihre Arbeit zu teilen und zu testen. Bei dem Ende April lancierten KI-Tool namens «Chat UI Energy» handelt es sich also auch um Marketing respektive Werbung in eigener Sache.

Gemäss dem Tool von Hugging Face benötigt das Verfassen einer «geschäftlichen E-Mail» durch die KI etwas mehr als 25 Sekunden und 0,5 Wattstunden, was 2,67 Prozent einer Handy-Aufladung entspreche.

Weitere Anwendungsbeispiele:

  • Ein 90-sekündiges Skript zum Testen einer Transkriptionssoftware benötigte 1,4 Wattstunden – knapp 7,4 Prozent einer Handyakkuladung, 22 Minuten einer LED-Glühbirne oder 0,6 Sekunden Mikrowellennutzung.
  • Die KI-Antwort auf ein «Dankeschön» von watson benötigte mit dem Sprachmodell Llama 3.0 von Meta lediglich 0.0173 Wattstunden. Beim Sprachmodell Qwen 3 von Alibaba Cloud waren es 0.8229 Wh.

Warum ist das wichtig?

Laut Hugging Face können kleine Änderungen auf der User-Seite, wie die Wahl eines anderen Sprachmodells (LLM) oder das Formulieren von kürzeren Anweisungen («Prompts»), einen Unterschied machen. Wenn man das mit den Millionen von Chats multipliziert, die tagtäglich stattfinden, wird schnell klar, dass entsprechende Anpassungen des Verhaltens viel bringen.

Der Chef der ChatGPT-Entwicklerfirma OpenAI wies kürzlich selbst darauf hin, dass auch scheinbar kleine Gesten wie das Hinzufügen von «bitte» und «danke» den Stromverbrauch der KI-Chatbots erhöhen. Sam Altman erklärte, dass die zusätzlichen Wörter mehr Rechenleistung beanspruchen, was wiederum zu einem grösseren Energieverbrauch und damit zu Kosten in zweistelliger Millionenhöhe für sein Unternehmen führe.

Wichtig: Wir reden hier ausschliesslich vom Stromverbrauch in den auf KI spezialisierten Rechenzentren, in denen die User-Eingaben verarbeitet werden. Noch ist der Anteil, den die KI beim weltweiten Stromverbrauch ausmacht, marginal. Maschinelles Lernen und generative KI machten 2021 weniger als 0,2 Prozent des weltweiten Strombedarfs und weniger als 0,1 Prozent der weltweiten Treibhausgasemissionen aus. Doch der Energiebedarf steigt mit dem KI-Boom rasant an.

Rechenzentren verbrauchen enorme Mengen an Energie und verursachen Treibhausgasemissionen. Zudem benötigen sie grosse Mengen Wasser für den Bau und die Kühlung der elektrischen Komponenten. Und schliesslich resultiert daraus auch viel Elektroschrott.

Und der Haken?

Das Tool ist derzeit für rund ein Dutzend Open-Source-Modelle verfügbar, aber nicht für gewinnorientierte LLM-Anbieter wie die US-Firma OpenAI mit ihren ChatGPT-Sprachmodellen. Es mangelt also ausgerechnet beim weltweiten Marktführer an Transparenz.

Zu folgenden KI-Anbietern liefert das Hugging-Face-Tool mehr oder weniger präzise Angaben, respektive ungefähre Schätzungen, zum Stromverbrauch:

  • Google (Gemma)
  • Nous Research (Hermes)
  • Meta (Llama)
  • Mistral AI (NeMo)
  • Alibaba Cloud (Qwen)
  • Microsoft (Phi)
Screenshot ChatUI-energy (von Hugging Face)
Screenshot: huggingface.co

Der Stromverbrauch bei ChatGPT-Abfragen dürfte in einem ähnlichen Rahmen liegen wie die Konkurrenz. Über den realen Stromverbrauch in den Rechenzentren gehen die Meinungen der Fachleute aber auseinander. Gemäss neueren Schätzungen verbrauchen Abfragen mit GPT-4o nur etwa 0,3 Wattstunden, was zehnmal weniger wäre als die viel zitierte Schätzung weiter oben.

Abgesehen von der Länge einer User-Eingabe gibt es noch zahlreiche weitere Faktoren, die relevant sind. So ist bei den mächtigsten Sprachmodellen der Techkonzerne auch die graue Energie zu berücksichtigen, wie etwa der Strom, der für das Trainieren der LLMs verbraucht wurde. Sicher ist in jedem Fall: Nur wenn man OpenAI und andere grosse KI-Unternehmen zu Kosten-Transparenz zwingt, würde es Klarheit darüber geben.

«Genauso wie die Inhaltsstoffe auf den Produkten angegeben werden müssen, die man kauft, brauchen wir bei der KI mehr Transparenz für die User!»
Clément Delangue, Chef von Hugging Face

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
«Das ist eine Sackgasse»: Astrophysiker zerlegt die Atomenergie in 57 Sekunden
Video: twitter
Das könnte dich auch noch interessieren:
0 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
    Toyota und Waymo planen selbstfahrende Autos für Privatleute

    Die bei Robotaxis führende Google-Schwesterfirma Waymo macht den ersten Schritt zu selbstfahrenden Autos im Privatbesitz. Toyota will gemeinsam mit Waymo ausloten, wie die Technik die nächste Fahrzeug-Generation verbessern kann.

    Zur Story