Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

Googles Suchergebnisse für «tv television and film»: Es tauchen Fotos auf, die in einem Internet-Forum mit genau diesem Namen hochgeladen wurden. Aus Sicht der Software sind die Bilder von Kindern in Bikinis deshalb die besten Treffer. screenshot: google

Wieso Google heute vermeintlich kinderpornografische Inhalte zeigte

Google-Suchergebnisse mit pädophilenfreundlichen Ergebnissen auf dem Silbertablett? Eine Trefferliste mit Bildern löst Empörung aus. Ein Faktencheck, wie es dazu gekommen ist.

Lars Wienand / t-online



Ein Artikel von

T-Online

Irgendwer hatte es in der Nacht zum Dienstag entdeckt, seither verbreitet es sich wie ein Lauffeuer: Was ist da mit Google los, fragen sich Nutzer angesichts der Ergebnisse bei einer Bildersuche: Wer «tv television and film» eingibt, sah zumindest am Dienstag als erste Treffer eine Galerie eindeutig minderjähriger Mädchen in Bikinis. Im Google-Hilfeforum wurde umgehend die Frage gepostet: «Was zur Hölle! Wie kann diese Kinderpornografie möglich sein?»

Die Erklärung liegt zum einen darin, dass die angezeigten Inhalte der Mädchen in Badebekleidung nicht verboten sind. Auch wenn die Zusammenstellung naheliegt, dass die Sammlung Menschen mit pädophilen Neigungen anspricht, handelt es sich nicht um kinderpornografisches Material. Verbotene Inhalte werden bei den grossen Seiten weitgehend automatisiert ausgefiltert. Der andere Grund ist die Funktionsweise der Suchmaschine: Sie sucht nach Bildern, die mit den eingegebenen Suchbegriffen idealerweise vielfach eng verknüpft sind.

Treffer führen zu Seite mit Name der Suche

In einem Imageboard gibt es eine entsprechende Unterseite mit dem Namen «/tv television and film», der genau diese Suchwörter in dieser Reihenfolge enthält. Die Suchtreffer der leichtbekleideten Kinder führen alle zu einer archivierten Version des Boards. Die Software schliesst daraus, dass diese Treffer dem Suchwunsch am besten entsprechen. Im Laufe des Tages veränderte sich die Google-Trefferliste, weil nun dort auch Beiträge zu dem Thema auftauchten.

Es ist aber unklar, wieso in dem 4chan-Board mit Beiträgen auf mehr als 30'000 Seiten gerade diese Bilder bei Google angezeigt werden. In der Szene dieser Seiten gab es auch in der Vergangenheit schon mehrfach erfolgreiche Versuche, Suchmaschinenergebnisse, Abstimmungen oder Darstellungen auf Google Maps zu manipulieren.

Verbreitet durch Naidoo-Umfeld 

Fahrt nahm die Entdeckung zunächst in Deutschland auf, nachdem sie in einem Telegram-Kanal aus dem Umfeld von Sänger Xavier Naidoo gepostet wurde. Dort dient das Google-Ergebnis manchen Menschen als Beleg für die im Dunstkreis der QAnon-Bewegung verbreitete Theorie, «Eliten» in Filmbranche und Politik seien Teil eines globalen Kinderschänder-Netzwerks. Angeblich hätte über Ostern auch die Befreiung Hunderttausender Kinder abgeschlossen werden sollen und es zu Massenfestnahmen «der Elite» kommen sollen.

QAnon? Rechtsextremistische Verschwörungstheoretiker hetzen gegen Microsoft-Gründer Bill Gates:

DANKE FÜR DIE ♥

Da du bis hierhin gescrollt hast, gehen wir davon aus, dass dir unser journalistisches Angebot gefällt. Wie du vielleicht weisst, haben wir uns kürzlich entschieden, bei watson keine Login-Pflicht einzuführen. Auch Bezahlschranken wird es bei uns keine geben. Wir möchten möglichst keine Hürden für den Zugang zu watson schaffen, weil wir glauben, es sollten sich in einer Demokratie alle jederzeit und einfach mit Informationen versorgen können. Falls du uns dennoch mit einem kleinen Betrag unterstützen willst, dann tu das doch hier.

Würdest du gerne watson und Journalismus unterstützen?

(Du wirst zu stripe.com umgeleitet um die Zahlung abzuschliessen)

Nicht mehr anzeigen

Du hast Sorgen? Diese 24 Bilder machen dich sofort glücklich

So heitern diese Briten ihre Nachbarskinder im Corona-Lockdown auf

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

5
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
5Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • Steibocktschingg 21.04.2020 23:13
    Highlight Highlight Natürlich muss die Ekelseite 4chan mal wieder dabei sein... Und selbstverständlich müssen Aluhüte mal wieder ihre Unfähigkeit, selbst einfache Dinge wie dass der Algorithmus Googles darauf ausgerichtet ist, möglichst die Ergebnisse zu liefern, die man haben möchte, beweisen und als Bestätigung ihrer Paranoia sehen.
  • John Steam in the snail hole 21.04.2020 20:08
    Highlight Highlight Die Bilder, oder vielmehr deren teilweise Nutzung, sowie die Instrumentalisierung und Sexualisierung dieser Kinder ist widerwärtig. Aber sie sind legal. Und offenbar wurde der Originalthread genug oft aufgerufen um sie durch die Algorhytmen an erster Stelle anzeigen zu lassen. Google trifft keine Schuld, denn das Suchergebnis bildet lediglich das Verhalten der Nutzer ab. Verbietet lieber Kinder-Models, keine Symptombekämpfung!
  • annego 21.04.2020 18:56
    Highlight Highlight Ich verteidige zwar ungern Google, aber für so etwas können sie wenig dafür, weil das Programm die Ergebnisse für eine Suche automatisiert erzeugt und es ist für sie fast ungmöglich falsche Ergebnisse zu bemerken bei Milliarden von verschiedenen zufälligen Suchanfragen.
    Ganz klar sollte so etwas Google gemeldet und von ihnen korrigiert werden, aber ein Aufschrei in den sozialen Medien und auch hier auf Watson ist meiner Meinung nach nicht nötig. Fehler passieren oft beim Programmieren, aber ein Problem ist das nur wenn sie nicht gelöst oder fahrlässig passierten (hier nicht der Fall).
    • PeteZahad 22.04.2020 09:32
      Highlight Highlight "Fehler passieren oft" - stimmt so nicht.
      Ein "false positive" ist kein (Programmier-)Fehler - die KI zeigt den Treffer mit der (angelehrten) höchsten Wahrscheinlichkeit (etwa 200 gewichtete Faktoren) korrekt an. Ein "false positive" ist gerade bei Suchanfragen höchst subjektiv, darum ist es falsch von "Fehler" zu sprechen. Solche ungewünschten Ergebnisse, können aber nach Entdeckung natürlich als false positive eingespiesen werden um die KI zu verbessern.
  • Butzdi 21.04.2020 18:46
    Highlight Highlight Also taggt 4chan die Bilder damit sie in Suchmaschinen bei den Suchbegriffen angezeigt werden, QAnon (eine 4chan Kreation) erzeugt eine gespielten Entrüstungssturm und pusht ihre abstrusen Theorien, irgendwelche ,useful Idiots, (hier das Naidoo Umfeld) tappen dann in die Falle und verbreiten die Lügen und der Käse geht viral.
    Ein typischer Fake News Cycle der in den 1930er Jahren erfunden wurde und heutzutage von solchen Plattformen wie 4chan sowie von Rechtspopulisten benutzt werden um Ängste zu schüren und Hass zu erzeugen.

Offener Brief an den Bundesrat – die Corona-Warn-App soll möglichst breit getestet werden

Aus der Zivilgesellschaft erhält der Gesundheitsminister konkrete Vorschläge, wie die geplante Proximity-Tracing-App trotz Verzögerung ein Erfolg werden kann.

Vertreterinnen und Vertreter der Zivilgesellschaft haben Gesundheitsminister Alain Berset einen offenen Brief geschrieben zur geplanten Schweizer Corona-Warn-App. Diese App heisst nun übrigens offiziell «Swiss PT-App» (wobei die Abkürzung für Proximity Tracing steht.

Die Unterzeichnenden (siehe unten) geben ihrer Sorge Ausdruck, dass die nun anlaufende Testphase, die der Bundesrat als «Pilotphase» bezeichnet, nicht ausreicht. Statt Tests im stillen Kämmerlein brauche es eine grosse Beteiligung.

Es …

Artikel lesen
Link zum Artikel