Ein neues Online-Tool lässt Interessierte den Stromverbrauch diverser KI-Sprachmodelle quasi in Echtzeit verfolgen und miteinander vergleichen.
Das Tool stammt von Hugging Face (dazu unten mehr) und kann frei ausprobiert werden. Wobei wir an dieser Stelle betonen müssen, dass gratis nicht kostenlos ist. Denn jede KI-Abfrage beansprucht die hochgerüsteten Server in den Rechenzentren der Techkonzerne.
Zu den online vergleichbaren Anbietern, respektive KIs, gehört auch ein Large Language Model (LLM) namens Llama 3.3, das der Meta-Konzern als Open-Source-Projekt vermarktet und weltweit frei anbietet. Mit genau dieser Technik findet in Bundesbern derzeit ein Pilotprojekt statt, das den Mitgliedern der Landesregierung ermöglichen soll, eigene KI-Erfahrungen zu sammeln.
Der entsprechende KI-Pilotversuch läuft in einem Rechenzentrum des Bundes. Wo will das zuständige Bundesamt für Informatik (BIT) nicht verraten.
Ob die sieben Bundesrätinnen und Bundesräte wissen, wie viel Strom ihre KI-Anfragen verbrauchen? Nehmen wir zum Beispiel an, der für KI-Belange zuständige Magistrat Albert Rösti wünschte sich vom Chatbot das Rezept für einen feinen Cheesecake.
Für die Beantwortung des kulinarischen Wunsches würde die KI ungefähr 0.3369 Wattstunden (Wh) Strom verbrauchen, wie das Tool von Hugging Face vorrechnet. Das entspreche 1,7 Prozent der Energiemenge, die das Aufladen eines Handy-Akkus benötigt (19 Wh).
Generative KI ist ein Stromfresser. Doch der Teufel steckt im Detail, was wahrscheinlich viele Nutzerinnen und Nutzer von ChatGPT und Co. nicht wissen.
Laut Schätzungen der Internationalen Energieagentur (IEA) verbraucht eine einzelne ChatGPT-Anfrage fast zehnmal so viel Strom wie eine typische Google-Suche: 2,9 Wattstunden gegenüber 0,2 Wattstunden. Diese Angabe muss inzwischen jedoch infrage gestellt werden, da die grossen Sprachmodelle deutlich effizienter funktionieren und weniger Rechenleistung erfordern.
Das US-Unternehmen Hugging Face stellt Dritten die technische Infrastruktur zur Verfügung, um künstliche Intelligenz (KI) in Live-Anwendungen zu demonstrieren, auszuführen und einzusetzen. Hugging Face wird auch als das GitHub des Machine Learning bezeichnet, weil es Entwicklern ermöglicht, ihre Arbeit zu teilen und zu testen. Bei dem Ende April lancierten KI-Tool namens «Chat UI Energy» handelt es sich also auch um Marketing respektive Werbung in eigener Sache.
Gemäss dem Tool von Hugging Face benötigt das Verfassen einer «geschäftlichen E-Mail» durch die KI etwas mehr als 25 Sekunden und 0,5 Wattstunden, was 2,67 Prozent einer Handy-Aufladung entspreche.
Weitere Anwendungsbeispiele:
Laut Hugging Face können kleine Änderungen auf der User-Seite, wie die Wahl eines anderen Sprachmodells (LLM) oder das Formulieren von kürzeren Anweisungen («Prompts»), einen Unterschied machen. Wenn man das mit den Millionen von Chats multipliziert, die tagtäglich stattfinden, wird schnell klar, dass entsprechende Anpassungen des Verhaltens viel bringen.
Der Chef der ChatGPT-Entwicklerfirma OpenAI wies kürzlich selbst darauf hin, dass auch scheinbar kleine Gesten wie das Hinzufügen von «bitte» und «danke» den Stromverbrauch der KI-Chatbots erhöhen. Sam Altman erklärte, dass die zusätzlichen Wörter mehr Rechenleistung beanspruchen, was wiederum zu einem grösseren Energieverbrauch und damit zu Kosten in zweistelliger Millionenhöhe für sein Unternehmen führe.
Wichtig: Wir reden hier ausschliesslich vom Stromverbrauch in den auf KI spezialisierten Rechenzentren, in denen die User-Eingaben verarbeitet werden. Noch ist der Anteil, den die KI beim weltweiten Stromverbrauch ausmacht, marginal. Maschinelles Lernen und generative KI machten 2021 weniger als 0,2 Prozent des weltweiten Strombedarfs und weniger als 0,1 Prozent der weltweiten Treibhausgasemissionen aus. Doch der Energiebedarf steigt mit dem KI-Boom rasant an.
Rechenzentren verbrauchen enorme Mengen an Energie und verursachen Treibhausgasemissionen. Zudem benötigen sie grosse Mengen Wasser für den Bau und die Kühlung der elektrischen Komponenten. Und schliesslich resultiert daraus auch viel Elektroschrott.
Das Tool ist derzeit für rund ein Dutzend Open-Source-Modelle verfügbar, aber nicht für gewinnorientierte LLM-Anbieter wie die US-Firma OpenAI mit ihren ChatGPT-Sprachmodellen. Es mangelt also ausgerechnet beim weltweiten Marktführer an Transparenz.
Zu folgenden KI-Anbietern liefert das Hugging-Face-Tool mehr oder weniger präzise Angaben, respektive ungefähre Schätzungen, zum Stromverbrauch:
Der Stromverbrauch bei ChatGPT-Abfragen dürfte in einem ähnlichen Rahmen liegen wie die Konkurrenz. Über den realen Stromverbrauch in den Rechenzentren gehen die Meinungen der Fachleute aber auseinander. Gemäss neueren Schätzungen verbrauchen Abfragen mit GPT-4o nur etwa 0,3 Wattstunden, was zehnmal weniger wäre als die viel zitierte Schätzung weiter oben.
Abgesehen von der Länge einer User-Eingabe gibt es noch zahlreiche weitere Faktoren, die relevant sind. So ist bei den mächtigsten Sprachmodellen der Techkonzerne auch die graue Energie zu berücksichtigen, wie etwa der Strom, der für das Trainieren der LLMs verbraucht wurde. Sicher ist in jedem Fall: Nur wenn man OpenAI und andere grosse KI-Unternehmen zu Kosten-Transparenz zwingt, würde es Klarheit darüber geben.