Big Brother rund um das Champions-League-Finale 2017 in Cardiff: Wenn Fussball-Fans am 3. Juni in die walisische Hauptstadt reisen, werden sie unfreiwillig zu «Versuchskaninchen» in einem Pilotprojekt der britischen Polizei. Trotz heftiger Kritik beabsichtigten die Sicherheitsbehörden, automatische Gesichtserkennung zu testen, berichtet das «Vice»-Medium Motherboard.
Automated Facial Recognition (AFR): Das bedeutet, dass Sicherheitskameras am Bahnhof und vor dem Stadion die Gesichter der Passanten erfassen und die biometrischen Daten an einen Server übermitteln. Dort analysiert eine Spezial-Software die Gesichtszüge, erstellt unverwechselbare Profile und gleicht diese mit einer Datenbank mit 500'000 Einträgen ab.
Brennende Frage aus Sicht der Datenschützer: Wer überprüft die Rechtmässigkeit der weitreichenden Überwachung?
Was mit den erfassten biometrischen Daten von rund 170'000 Besuchern passiert, ist nicht bekannt. Diese Daten müssen gelöscht werden. Offen ist auch, nach wem gesucht wird.
Motherboard schreibt von einer halben Million Menschen, sogenannten «persons of interest», die offenbar davon abgehalten werden sollen, bis ins Principality Stadium zu gelangen. Wen die Polizei in der Datenbank gespeichert hat, wird nicht verraten. Nebst gesuchten Terroristen dürften es Personen mit islamistischem Hintergrund sein, sogenannte Gefährder. Ob auch verurteilte Gewalttäter und «Hooligans» dazugehören, ist offen.
Was für Datenschützer ein Albtraum ist, ist für die Anbieter von AFR-Technologie ein gutes Geschäft. Die South Wales Police hat den Auftrag für 177'000 britische Pfund ausgeschrieben. Mittlerweile wurde ein Partner gefunden, der Vertrag endet 2019.
Vorfälle wie der Bombenanschlag auf den Mannschaftsbus von Borussia Dortmund vor dem Champions-League-Viertelfinale zeigten, warum die Sicherheitsbehörden den Einsatz von AFR-Technologie forcieren: Dies äusserte der in Grossbritannien für die Überwachung zuständige Regierungsvertreter Tony Porter in einem schriftlich geführten Interview mit Motherboard. Der «Surveillance Camera Commissioner» hatte im März eine nationale Strategie zur Videoüberwachung veröffentlicht.
Wobei anzumerken bleibt, dass gerade der Anschlag in Dortmund zeigt, dass die Massenüberwachung nicht mal annähernd verhindern kann, dass Kriminelle zuschlagen.
Neben der Frage, wer die Massenüberwachung überwacht, ist die Effizienz der AFR-Technologie infrage gestellt. Die automatische Gesichtserkennung funktioniert nur in kontrolliertem Rahmen und mit hochauflösenden Kameras zuverlässig. Die Sicherheitskameras, die bisher an Bahnhöfen, Flughäfen und anderen öffentlichen Plätzen zur Überwachung angebracht wurden, liefern in der Regel zu wenig scharfe Aufnahmen. Dies bestätigten unabhängige Berichte von Behörden und die Praxis.
Die South Wales Police habe bereits ihre negativen Erfahrungen mit der AFR-Technologie gemacht, berichtet Motherboard. Während des Notting Hill Carnival im letzten Jahr hätten die Sicherheitskameras nicht eine einzige Person erkannt ...
via Slashdot