wechselnd bewölkt
DE | FR
4
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Digital
Terrorismus

So will Google gegen Terror-Videos bei YouTube und Co. vorgehen

So will Google gegen Terror-Videos vorgehen

18.06.2017, 19:5418.06.2017, 21:43

Nach Facebook hat auch Google angekündigt, den Kampf gegen terroristische Inhalte im Netz mit künstlicher Intelligenz zu verstärken. Der Internet-Konzern werde dafür mehr Entwickler und seine modernste Technologie bei selbstlernenden Maschinen einsetzen, kündigte Google-Chefjurist Kent Walker am Sonntag an. Gleichzeitig will Google aber auch verstärkt auf Hilfe von Experten setzen.

Damit sollen unter anderem bei der Videoplattform YouTube automatisch mehr Clips mit Terrorpropaganda aufgespürt werden. Auch die Zahl der Experten, die über als verdächtig markierte Videos entscheiden, werde stark erhöht, schrieb Walker in einem Beitrag in der Londoner Zeitung «Financial Times».

Google setzt dabei auf «Trusted Flagger», das sind Einzelpersonen oder Organisationen, denen Google vertraut, wenn sie anstössige oder rechtswidrige Inhalte anzeigen. Das können auch Strafverfolgungsbehörden sein.

Walker betonte, Google, YouTube und andere Internet-Firmen arbeiteten zwar schon seit Jahren daran, solche Inhalte zu finden und zu löschen – aber «die unbequeme Wahrheit ist, dass wir als Industrie eingestehen müssen, dass noch mehr getan werden muss. Jetzt.»

Google setze bereits auf die Analyse von Videobildern, um Terror-Propaganda auch ohne Hinweisen von Nutzern zu entdecken, betonte Walker.

Selbstlernende Maschinen

Mehr als die Hälfte der gelöschten Inhalte in den vergangenen sechs Monaten sei so gefunden worden. Entwickler des Internet-Konzerns hätten auch Technologie entwickelt, die ein erneutes Hochladen bereits bekannter terroristischer Videos verhindere.

Auch Facebook gab vor wenigen Tagen bekannt, dass selbstlernende Maschinen stärker dafür eingesetzt werden, solche Inhalte gar nicht erst wieder auf die Plattform durchzulassen. Zudem werde an einem Algorithmus gearbeitet, der durch Textanalyse terroristische Propaganda erkennen solle.

Internet-Unternehmen stehen in Europa unter wachsendem Druck aus der Politik, härter gegen Terror-Inhalte vorzugehen. So erklärte die britische Premierministerin Theresa May nach dem jüngsten Attentat auf der London Bridge, Extremismus finde im Netz eine sichere Brutstätte - und die grossen Internetunternehmen liessen dies zu.

(dsc/sda/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.

Das könnte dich auch noch interessieren:

4 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
4
Musk hat gerade Zehntausende der schlimmsten Leute im Internet zurück zu Twitter gebracht
Elon Musk erlaubt Zehntausenden gesperrten Twitter-Usern die Rückkehr und zettelt einen Privatkrieg mit Apple an. Zu seinem grössten Albtraum könnte aber bald das neue Digitalgesetz der EU werden.

Vergangene Woche kündigte Tech-Milliardär Elon Musk an, von Twitter verbannte Accounts wieder freischalten zu wollen. Zuvor hatte er einen Bruchteil der User darüber abstimmen lassen, ob es für gesperrte Konten eine «Generalamnestie» geben soll, wenn diese nicht gegen Gesetze verstossen oder Spam-Nachrichten verbreitet haben. 72,4 Prozent sagten Ja. Wie viele Stimmen von Bots, sprich automatisierten Accounts, abgegeben wurden, ist unklar. Das US-Techportal The Verge titelte süffisant: «Elon Musk hat soeben beschlossen, die schlimmsten Leute im Internet zurück zu Twitter zu bringen».

Zur Story