Es klingt wie aus einem Actionfilm, doch in Grossbritannien soll es Wirklichkeit werden: Mittels Künstlicher Intelligenz sollen Verbrechen verhindert werden. Es stellt sich nun die Frage, wie das genau funktionieren soll.
Genauer soll nach dem britischen Justizministerium das Risiko besser abgewägt werden, ob Täter auf Bewährung schwere Gewaltdelikte verüben. Damit sollen also Mord und andere Gewalttaten auf Basis von historischen Daten verhindert werden, schreibt das SRF. «Man will möglichst viele Daten in ein System füttern, darin Muster finden und aufgrund dieser Vorhersagen treffen», sagt SRF-Digitalredaktor Guido Berger. Laut dem britischen Justizministerium werde das Programm aber nur für die Forschung verwendet.
Basis des Programms seien «Daten über verurteilte Straftäter vom HM Prison und Probation Service und den Polizeibehörden», erklärt das britische Justizministerium im «Guardian». Dazu gehören auch Informationen zum Geschlecht, ethnischer Zugehörigkeit und psychischer Gesundheit.
Die Organisation «Statewatch», welche die Regierung auf die Einhaltung der Bürgerrechte überwacht, warnt. Gemäss ihren Recherchen würden auch Daten von Menschen verwendet, die nicht wegen einer Straftat verurteilt wurden. Dazu gehören etwas Opfer von häuslicher Gewalt oder Menschen, die sich selbst verletzen. Laut den Behörden seien diese Informationen aber nicht im Datenpool zu finden.
Laut Berger sei KI in der Eindämmung der Kriminalität zukünftig gefragt. Solche Programme, die mit Algorithmen gefüttert werden, gebe es schon länger. Er sagt dazu: «Man will nicht dastehen und sagen, man hätte nicht die Möglichkeit gehabt, etwas zu verhindern und es dann nicht getan.» Vor allem beim Vorgehen gegen Verbrechen und dem Analysieren, wie Menschen zu Verbrechern werden. Dabei sollen weitere Erläuterungen helfen.
Es besteht jedoch die Gefahr, dass die Algorithmen Diskriminierung ausweitet. «Das ist ein klassisches Problem aller derartigen Systeme, die man auf einem bestehenden Datensatz trainiert», sagt Berger. Wenn eine bestimmte Personengruppe überdurchschnittlich viel kontrolliert wird, wirke sich dies auch auf die Daten aus, da diese Informationen öfters vorkommen.
Sobald die KI einmal auf ein bestimmtes Schema trainiert wurde, ist es schwer, auf Abweichungen zu reagieren. Beim Bewerbungsverfahren beispielsweise würde die KI auch zukünftig vor allem weisse Männer auswählen, wenn diese in Vergangenheit die Belegschaft eines Unternehmens ausmachten.
In der Schweiz sollen vor allem Programme genutzt werden, die Einbrüche prognostizieren. Mittels einer Menge an Daten sollen die Orte und Zeitpunkte ermittelt werden, welche ein besonders grosses Gefahrenpotenzial für Einbrüche vorweisen, da es dort in der Vergangenheit öfter zu solchen Verbrechen kam.
Nach einigen Probeläufen ist das Fazit aber ernüchternd: «Im Kanton St. Gallen zum Beispiel ist man nach Testläufen zur Einsicht gelangt, dass ihnen das nicht wesentlich weiterhilft», sagt Berger. Bei Einbrüchen sei die Menge der Daten aber noch gross. Anders sieht es dagegen bei Gewaltverbrechen aus. Dort ist die Datenmenge noch eher klein. (kek)