Digital
Analyse

Machen uns ChatGPT und Co. faul und dumm?

KI-generiertes Bild im Ghibli-Stil.
KI-generiertes Bild: Welche Folgen hat es, wenn wir Alltagsprobleme von KI-Chatbots lösen lassen? Bild: chatgpt / imago-images.de
Analyse

Wie uns wegen ChatGPT die Verblödung droht

Der deutsche IT-Sicherheitsforscher Mike Kuketz nimmt die zunehmende Nutzung von generativer KI unter die Lupe. Seine Analyse gibt zu denken.
29.05.2025, 19:3929.05.2025, 19:39
Mehr «Digital»
«KI lässt uns Menschen das Denken verlernen – und wir halten es für Fortschritt.»
Mike Kuketz

Es gibt Texte, die aufhorchen lassen.

Diese Woche hat Mike Kuketz einen solchen veröffentlicht. Der bekannte deutsche IT-Sicherheitsforscher beschäftigt sich darin kritisch mit KI. Mit generativer künstlicher Intelligenz, um genau zu sein.

Kuketz warnt vor einem Phänomen, das in allen gesellschaftlichen Schichten und Altersgruppen zu beobachten sei. Aber vor allem bei jungen Menschen.

«Fragen, die früher mit einem Blick in ein Buch, durch Ausprobieren oder mit gesundem Menschenverstand gelöst wurden, werden heute reflexartig an eine KI delegiert. Nicht weil es nötig ist – sondern weil es bequemer ist.»

Ja, da trifft er einen wunden Punkt. Während man früher zumindest noch gewisse Google Hacks beherrschen musste, um bei der Web-Suche alles zu finden, machen heute ChatGPT und Co. die ganze Arbeit.

Doch da beginnen die Schwierigkeiten, wie Kuketz treffend beschreibt.

Wo ist das Problem?

Bis vor Kurzem sei Künstliche Intelligenz (KI) noch ein Werkzeug gewesen – ein praktisches Hilfsmittel, das klar definierte Aufgaben übernommen habe.

Nun konstatiert der IT-Sicherheitsforscher:

«Denken wird nicht mehr als selbstverständliche Tätigkeit betrachtet, sondern als Option – eine, die man sich zunehmend erspart. Und genau darin liegt die Gefahr. Denn wer aufhört zu denken, verlernt nicht nur das Problemlösen, sondern auch das Hinterfragen, das Abwägen, das Erinnern – kurz: das Menschsein in seiner geistigen Tiefe.»

Mittlerweile sind wir bei einem Phänomen angelangt, das auch als «Maslow's Hammer» oder «Law of the Instrument» bezeichnet wird. Einfach ausgedrückt: Weil man uns einen KI-Hammer in die Hand gedrückt hat, sieht plötzlich alles wie ein Nagel aus.

Dazu erklärt Kuketz:

«Heute übernimmt KI nicht nur operative Aufgaben, sondern zunehmend auch kognitive Entscheidungen: Welche Formulierung klingt souverän? Welche Tonlage wirkt empathisch? Welche Argumentation überzeugt im Konflikt?»

Was sind die Folgen?

Die Konsequenzen klingen ziemlich dramatisch.

«Die Folge ist keine plötzliche intellektuelle Verarmung, sondern eine schleichende Entwöhnung vom eigenen Urteil. Die Fähigkeit, sich sprachlich, gedanklich und emotional selbst zu orientieren, wird zunehmend durch automatisierte Vorschläge ersetzt – und dadurch kaum noch geübt, geschweige denn weitergegeben.»

Als bekanntes Beispiel führt Kuketz die Marketing-Kampagne zum Galaxy S25 Ultra ins Feld. Samsung vermarkte das Android-Smartphone mit KI-Assistenz als Alltagslösung für «kleine und grosse Pannen».

«Die Idee: Du musst nicht mehr selbst nachdenken, wenn die KI es für dich kann.»

Wer sich früh daran gewöhnt, «komplexe oder gar triviale Entscheidungen» an die KI abzugeben, verlerne, sie überhaupt zu treffen, gibt Kuketz zu bedenken. Und diese Faulheit Bequemlichkeit habe ihren Preis.

«Wir stumpfen ab für Details, verlieren die Fähigkeit zur Orientierung ohne fremde Hilfe, gewöhnen uns an eine Welt, in der jede Unsicherheit sofort extern ‹geklärt› wird.»

Persönliche Anmerkung des hier Schreibenden: Was bedeutet die schleichende Abnahme der menschlichen Problem-Lösungs-Kompetenz für die Schweiz? Ein Land, das mit seinem direktdemokratischen politischen System wie kein anderes auf kritisch denkende und engagierte Bürgerinnen und Bürger angewiesen ist.

PS: Beim Verfassen dieser Zeilen kam dem watson-Redaktor noch der passende Film zum Thema in den Sinn. Im Pixar-Meisterwerk Wall-E sehen wir eine dystopische Zukunft, in der die Menschen nichts mehr aktiv tun, sondern auf Liegen herumgefahren werden.

Weitere aufschlussreiche Überlegungen zum Thema findest du im Blog-Beitrag von Mike Kuketz (siehe unten).

Und jetzt du!

Wie hältst du es mit der Nutzung von generativer KI? Brauchst du nur noch ChatGPT statt Google? Lässt du dir viele alltägliche Fragen so beantworten?

Schreib uns via Kommentarfunktion!

Führen KI-Chatbots wie ChatGPT in die gesellschaftliche Verblödung?
An dieser Umfrage haben insgesamt 3842 Personen teilgenommen

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
Das steckt hinter den viralen KI-animierten Gemälden
Video: watson
Das könnte dich auch noch interessieren:
158 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Mulumbi
29.05.2025 22:24registriert April 2024
Diese Entwicklung ist weder überraschend noch aufzuhalten. Die meisten Leute sind dumm und degenerieren weiter. Dank KI nur noch schneller.
10710
Melden
Zum Kommentar
avatar
Die Welt von morgen
29.05.2025 22:01registriert Mai 2025
Kleiner Wermutstropfen, die KI lernt von der Interaktion mit den Nutzern. Folglich wird sie selber auch dümmer, wenn die Nutzer dümmer werden.
9411
Melden
Zum Kommentar
avatar
Hädöpfel
29.05.2025 21:56registriert September 2016
Sehe den Punkt, aber sollte man trotzdem nicht so schwarz-weiss sehen. Wenn ich bspw. schlichtweg nicht gut in Kommunikation bin und nicht jemanden dabei um Rat fragen kann, hilft mir das Nachdenken weniger. Ehrlich gesagt konnte ich dank ChatGPT schon einige Konflikte vermeiden bzw. alles aus einer anderen Perspektive betrachten. Der Sicherheitsmann hat aber recht vor allgemeiner Denkfaulheit zu warnen. Sich von KI helfen lassen, aber dann auch über das was die KI sagt nachdenken; denke that's the way to go.
6421
Melden
Zum Kommentar
158
    Darum will der Kanton Nidwalden Airbnb nicht regulieren

    Nidwaldens Regierungsrat erachtet die Einführung von Regulierungen für Airbnb und ähnliche Angebote als «nicht angemessen». Zu diesem Schluss kam er nach einer Prüfung einer Interpellation aus dem Landrat.

    Zur Story