Eine Anfrage beim KI-Chatbot ChatGPT verbraucht nach Angaben der amerikanischen Entwicklerfirma OpenAI so viel Strom wie gut eine Sekunde Backofen-Betrieb. Der Wasserverbrauch pro Anfrage liege bei einem Fünfzehntel eines Teelöffels.
Dies hat OpenAI-Chef Sam Altman in einem aktuellen Blog-Beitrag verraten, ohne dabei auf die technischen Hintergründe zum Stromverbrauch einzugehen.
Dem OpenAI-Chef zufolge verbraucht eine durchschnittliche ChatGPT-Anfrage rund 0,34 Wattstunden (Wh). Den Wasserverbrauch bezifferte er auf 0,00032176 Liter (0,000085 Gallonen). Altman machte keine näheren Angaben zur Basis für diese Berechnungen.
Sicher ist: Es kommt darauf an. Bei komplexen User-Anfragen (Prompts) dürfte der Bedarf an Rechenleistung (und damit der Stromverbrauch) ansteigen.
Seit Jahren gibt es Warnungen von einem eskalierenden Strombedarf durch die flächendeckende Nutzung von Anwendungen mit Künstlicher Intelligenz.
Auch wenn einzelne Nachfragen dank Effizienz-Gewinnen bei der Chip- und Servertechnik tatsächlich immer weniger Energie benötigen dürften, sorgt die schiere Masse der Nutzung immer noch für einen sprunghaften Anstieg des Strombedarfs für KI-Rechenzentren.
Unter anderem Microsoft, Google und Amazon wollen in den USA auf Atomenergie setzen. Das soll dazu beitragen, den Energiebedarf zu decken, ohne den Ausstoss des klimaschädlichen Kohlendioxids entsprechend zu erhöhen. Die negativen Folgen, allen voran die hochgefährlichen, stark strahlenden Abfälle aus der Kernspaltung sowie das Risiko verheerender AKW-Unfälle, scheinen die Verantwortlichen auszublenden.
Da die Rechenzentren gekühlt werden müssen, ist auch der immense Wasserverbrauch ein Thema. In den vergangenen Jahren gab es mehrere Studien, die versuchten, die Umweltbelastung durch die verstärkte Nutzung generativer KI zu berechnen. Doch die Forscher müssen dabei mit vielen Annahmen arbeiten.
Altman machte seine Angaben dazu in einem Blogeintrag, in dem er ein grundsätzlich positives Bild von der Zukunft mit Künstlicher Intelligenz zeichnete.
Es werde zwar harte Einschnitte geben, etwa wenn ganze Kategorien von Jobs wegfallen, liess er verlauten. «Aber andererseits wird die Welt so schnell so viel reicher werden», dass man in der Lage sein werde, zuvor unmögliche Politik-Ideen zu erwägen.
Altman stellt erneut eine Superintelligenz in Aussicht und erklärt vielsagend: «Wir wissen nicht, wie weit wir über die menschliche Intelligenz hinausgehen können, aber wir werden es bald herausfinden.»
Solche Prognosen sind nicht mehr als unbelegte Behauptungen, die den KI-Hype weiter ankurbeln sollen. Altman verfolgt als OpenAI-Geschäftsführer und Investor massive wirtschaftliche Interessen in dem Bereich.
Das Geschäftsmodell von OpenAI sieht vor, dass dank immer grösserer Kundschaft immer grössere Summen in neue Datenzentren investiert werden, um so den steigenden Bedarf an Rechenkapazität zu decken.
In einer wissenschaftlichen Veröffentlichung widerlegen ausgerechnet Forscher des US-Techkonzerns Apple, der mit OpenAI eine Kooperation eingegangen ist und ChatGPT in seine Betriebssysteme integriert, die übertriebenen Erwartungen an generative KI. Selbst die neuesten angeblich «denkenden» Sprachmodelle (LLMs) wie o1 von OpenAI oder Deepseek-R1 versagten bei komplexeren Aufgaben komplett – trotz ihrer vermeintlich fortgeschrittenen «Reasoning»-Fähigkeiten.
Das Techportal golem.de konstatiert:
Bislang befürchteten viele Menschen, dass intelligente Maschinen bald ganze Berufszweige überflüssig machen, doch die Forschungsergebnisse aus Cupertino zeichneten «ein deutlich differenzierteres Bild». Die KI-Systeme versagten bei vielschichtigen Denkaufgaben, bei denen Menschen ihre Stärken ausspielen.
Danach habe ich aufgehört zu lesen. Wenn dem so ist, sollten wir alle mit dem backen aufhören.
Dieser Titel wurde sicher von ChatGPT halluziniert.
Wäre das viel?
Braucht das Laden eines Lifetickers bei Watson viel weniger?
Einfach damit ich das besser einordnen kann.
Gruss
Chorche, hat 1 Ordner