Digital
Schweiz

«Precobs hat nichts mit dem Blick in die Glaskugel zu tun. Es ist knallharte Wissenschaft und knallharte Mathematik»

Erfinder der neuen Polizei-Software im Interview

«Precobs hat nichts mit dem Blick in die Glaskugel zu tun. Es ist knallharte Wissenschaft und knallharte Mathematik»

Die Polizei-Software Precobs ist nach dem Science-Fiction-Thriller «Minority Report» benannt, hat aber nichts mit Hellsehen zu tun. Der Soziologe und Kriminologe Thomas Schweer über die Möglichkeiten und Grenzen der Verbrechens-Prognose.
02.10.2014, 12:1604.09.2017, 10:12
Mehr «Digital»

Herr Schweer, Ihre Software heisst Precobs – den Namen haben Sie bewusst gewählt, um eine Verbindung zum Science-Fiction-Thriller «Minority Report» herzustellen?
2002 hatte ich die Idee zu der Prognose-Software und suchte einen guten Arbeitstitel. Im gleichen Jahr kam «Minority Report» heraus. Lassen Sie mich eines klarstellen: Im Film sagen die Precogs Straftaten voraus. Dann kommt die Polizei und nimmt Personen wegen des Gedankens fest, eine Straftat verüben zu wollen. Das hat mit uns gar nichts zu tun. In einem demokratischen Rechtsstaat müssen Sie erst mal eine Straftat begehen. Die Gedanken sind immer noch frei, und das soll auch so bleiben. 

Die Gedankenpolizei: Film-Trailer zu «Minority Report».video: youtube

In Medienberichten über Ihre Software ist aber immer wieder vom Hellsehen die Rede.
Unser Vorgehen hat nichts mit dem berühmten Blick in die Glaskugel zu tun. Es ist knallharte Wissenschaft, knallharte Mathematik, knallharte Kriminologie und knallharte Statistik.

Thomas Schweer ist Soziologe und Kriminologe und hat mit seiner deutschen Firma die Precobs-Software entwickelt.
Thomas Schweer ist Soziologe und Kriminologe und hat mit seiner deutschen Firma die Precobs-Software entwickelt.bild: zvg

Auf welchen wissenschaftlichen Erkenntnissen basiert Precobs?
Wir analysieren mithilfe von soziologischen, psychologischen und kriminologischen Theorien menschliches Verhalten. Menschen hinterlassen immer ein musterhaftes Verhalten. Egal ob sie – in Anführungsstrichen – normale Menschen sind oder Kriminelle. Menschen funktionieren musterhaft. Diese Muster suchen wir in grossen Datenmengen.

Das ist Data-Mining. Daraus berechnen wir die Wahrscheinlichkeit neuer Straftaten. Wir sagen voraus, wo es wieder passiert.

Konkret geht es um die Muster bei Einbrüchen.
Bei den Wohnungseinbrüchen ist die Aufklärungsquote ja nicht besonders gut, in Deutschland liegt sie bei 15 Prozent (und in der Schweiz bei 12 Prozent, Anmerkung der Red.). Hier kommt die Rational-Choice-Theorie (aus der Soziologie) ins Spiel. Wenn ein bestimmtes Verhalten einen höheren Nutzen hat als Kosten, dann behalten wir dieses bei. Bezogen auf die Einbrüche heisst das: Wenn Sie mit einer 85-prozentigen Wahrscheinlichkeit mit Ihrer kriminellen Handlung durchkommen, dann ist das eine gute Quote.

Und Ihre Software kann diese Quote senken?
Ja. Das zeigen die Erfahrungen der Stadtpolizei Zürich, die die Software im Alltag einsetzt.

Wie ist die Kooperation mit Zürich zustande gekommen?
Ich habe früher mit der Stadtpolizei Zürich in einem ganz anderen Zusammenhang zusammengearbeitet, das hatte nichts mit Predictive Policing zu tun. Da ergab sich ein persönlicher Kontakt. Und später habe ich diese Person gefragt, wer sich in Zürich für unsere Prognose-Software interessieren könnte.

Welche anderen Schweizer Polizeibehörden nutzen Precobs?
Basel-Landschaft (die Kantonspolizei, Anmerkung der Red.) nutzt es auch. Die sind bereits gestartet. Und dann kommt mit 99,9-prozentiger Wahrscheinlichkeit noch ein dritter Kanton hinzu, den ich jetzt noch nicht nennen darf.

Welche anderen Delikte lassen sich damit bekämpfen?
In der aktuellen Konfiguration prognostizieren wir Wohnungs- und Geschäftseinbrüche. Die gleiche Technik ist aber auch auf andere Deliktsfelder anwendbar: Autodiebstahl, Raub, Skimming (Bankomat-Betrüger, Anmerkung der Red.), Brandstiftung. Es gibt auch schon Anfragen, die Prognosen auf solche Straftaten zu übertragen.

[posed picture] A man poses with an ordnance pistol 75 of the Swiss Army, a model SIG P220 of manufacurer SIG Sauer, pictured on January 6, 2010, in Zurich, Switzerland. (KEYSTONE/Martin Ruetschi)

[g ...
Precobs könnte laut Entwicklerfirma auch Raubüberfälle prognostizieren. Bild: KEYSTONE

Ihre Prognose-Software funktioniert bei musterhaftem Vorgehen der Täter, aber nicht bei impulsiven Delikten, wie zum Beispiel der Tötung des Partnerns.
Eine Beziehungstat werden Sie so nicht prognostizieren können. Aber man könnte natürlich andere Muster finden. Ein Beispiel: In gewissen Stadtteilen steigt am Heiligabend die Zahl der Polizeieinsätze wegen häuslicher Gewalt. Weil dort eher Familien angesiedelt sind, in denen die sozialen Spannungen hoch sind. Gerade in sozial benachteiligteren Stadtteilen werden die Spannungen auch eher nach aussen getragen. Dann haben Sie auch mehr Vorfälle. Aber dafür brauchen Sie keine Software. 

Was kostet Precobs?
Dazu sagen wir generell nichts in der Öffentlichkeit.

«In diesem Bereich herrscht einfach noch zu viel Unwissenheit. Und Unwissenheit produziert Ängste.»

Ist es bezahlbar?
Das kann ich bestätigen. Wenn ich sehe, für was manchmal Geld ausgegeben wird und in welcher Höhe, dann ist die Software ein Preisknüller.

Was sind die Gefahren?
Wichtig ist, dass man damit transparent umgeht und die Bürger informiert, wie das Ganze funktioniert. In diesem Bereich herrscht einfach noch zu viel Unwissenheit. Und Unwissenheit produziert Ängste.

Wie steht es um den Datenschutz?
Wir arbeiten nicht mit personenbezogenen Daten. Das haben wir ganz bewusst so gemacht. Weil personenbezogene Daten zurecht immer ein Problem aufwerfen: Datenschutzbeauftragte gucken ganz anders hin, wenn mit personenbezogenen Daten gearbeitet wird. Die von unserer Software verarbeiteten Daten kommen von der Polizei und bleiben auf ihren Rechnern.

Welche Daten sind das konkret?
Es gibt nur einen Datenpool und das ist der Datenpool der Polizei. Wir arbeiten eigentlich mit relativ wenigen Informationen, die wichtigsten sind Tatort und Tatzeit. Dann kommt noch der Modus Moderandi hinzu, also wie ist die Tat begangen worden, wie ist die Tür aufgebrochen worden und welche Beute wurde geklaut. Diese Parameter reichen uns, um zu qualitativ guten Aussagen zu kommen.

Es liegt in Ihren Händen, dass die Prognose-Software nicht um problematische Funktionen erweitert wird oder die Daten in falsche Hände geraten.
Die Erfindung, respektive die Technik an sich, ist nicht schlecht. Wir müssen lernen, vernünftig damit umzugehen. Nehmen Sie das Beispiel Relativitätstheorie. Da kam die Atombombe dabei heraus – ich würde aber nicht Albert Einstein dafür verantwortlich machen. 

Unser System ist auf Einbrüche programmiert und verarbeitet keine personenbezogenen Daten – das kann man nicht einfach umprogrammieren. Darf man auch nicht.

Es ist ein generelles Problem: Wie geht man mit den Daten um, welche Schutzmechanismen baut man ein. Sie können heute eigentlich alles «bauen», nehmen Sie die NSA. Die hat alles, was Sie haben will. Da ist der amerikanische Staat gefragt: Was lässt er durchgehen und was lässt er nicht durchgehen. Die Politik ist in der Verantwortung.

Der neue Multikopter der Stadtpolizei Zuerich in Zusammenarbeit mit der Dienstabteilung Geomatik und Vermessung GeoZ wird praesentiert, anlaesslich einer Medienorientierung am Dienstag, 2. September 2 ...
Hightech bei der Stadtpolizei Zürich: Der neue Multikopter wird zukünftig zur Unfallfotografie und für Vermessungzwecke eingesetzt.Bild: KEYSTONE

Ihre Firma arbeitet nur mit demokratischen Ländern zusammen und exportiert die Software nicht in Unrechts-Staaten?
Das ist richtig. Wir sind in Deutschland und in der Schweiz und im europäischen Ausland. Wir haben als Firma eine moralische Verantwortung und natürlich auch als Wissenschaftler, gar keine Frage. Das Geld kann nicht alles bestimmen.

Aus den USA hört man vom Einbezug von Social Media und anderen Datenquellen.
Das ist bei uns überhaupt nicht der Fall. Die eine oder andere Firma mag damit experimentieren. Natürlich sagen einige, je mehr Daten ich habe, desto besser werde ich. Aber das ist kein linearer Prozess. Ich glaube es gibt eine kritische Grenze, wo der Nutzen der ganz ganz vielen Daten aus unterschiedlichen Datenpools hinter den Kosten zurücksteht.

«Der Mensch löst sich nicht durch den Computer auf.»

Wäre es sinnvoll, Wetterdaten einzubeziehen?
Ja, das könnte ich natürlich machen, das wäre gar kein Problem. Aber wir haben ja keine vollautomatisierte Software. Ich habe immer gesagt: Der Mensch spielt die zentrale Rolle. Die Software ist einzig und allein dazu da, die Polizeikräfte so effektiv und effizient wie möglich zu machen. Der Mensch löst sich nicht durch den Computer auf.

Wenn die Maschine eine Prognose ausgibt, dann sitzt da ein erfahrener und speziell geschulter Polizeibeamter und guckt sich die Prognose an. Dann sagt er: Die Prognose ist gut, oder ich hab da Kritikpunkte. Letztendlich entscheidet er, ob die Prognose (zuhanden der Einsatzplanung, Anmerkung der Red.) rausgeht oder nicht.

Wie wird der Erfolg gemessen?
Sie können nie generell sagen, ob die Software erfolgreich ist oder nicht. Das ist ein Problem der sozialwissenschaftlichen Erfolgsmessung, weil sehr viele Faktoren eine Rolle spielen. Das gleiche Problem hat die Polizei bei der Präventionsarbeit. Also wenn die Polizisten zu den Leuten hingehen und sie beraten, wie man sich besser vor Einbrüchen schützt. Die sagen auch immer: Wie messen wir unseren Erfolg?

«Predictive Policing wird in zehn Jahren Standard bei der Polizei sein.»

Das Gute an unserer Methode ist, dass wir erst einmal in der Vergangenheit testen können, ob es funktioniert hätte. Wir nehmen polizeiliche Daten der letzten Jahre und gucken, ob wir Erfolg gehabt hätten. Daraufhin schaut sich die Polizei in einem Pilotversuch an, ob das alles so funktioniert, wie sie sich das vorstellt. Der Testbetrieb dauert in der Regel sechs Monate. Erst dann entscheiden die Verantwortlichen, ob die Software dauerhaft eingesetzt wird.

Was denken Sie, wie geht die Entwicklung weiter?
Data-Mining ist da und wird sich noch weiter ausbreiten. Das nennt der Soziologe die industrielle Revolution 4.0. Sie haben das an der Börse, Sie haben das bei grossen Einkaufsketten, die gucken sich alle die Einkaufsprofile an.

Predictive Policing wird in zehn Jahren Standard bei der Polizei sein. Es wird sogar eine neue Funktion geben. Es braucht Analytiker, die sich mit der Software auskennen. Ob das nun unsere ist, oder die eines Konkurrenten.

Aber die Polizei hinkt der technischen Entwicklung hinterher.
Das ist normal. Das hängt mit den Strukturen zusammen. Wenn Sie gute und erfindungsreiche IT-Spezialisten haben, dann gehen die in der Regel nicht zur Polizei. Weil mit dem, was ein Beamter kriegt, geben die sich nicht zufrieden. Hinzu kommt: Grosse Organisationen, wie die Polizei oder die Schule, sind wie Tanker sehr schwerfällig und nicht so schnell bereit, Innovationen aufzunehmen. Das braucht Zeit.

Erfahren Sie im 4. Teil alles, was Sie zum Predective Policing wissen müssen.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
3 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
3
Rüge: SRF hat bei Berichterstattung zu Gaza-Protesten das Vielfältigkeitsgebot verletzt

Das Schweizer Radio und Fernsehen (SRF) hat mit seiner Berichterstattung über Gaza-Proteste an Universitäten das Vielfältigkeitsgebot verletzt. Zu diesem Schluss kommt die Unabhängige Beschwerdeinstanz für Radio und Fernsehen. Die Beschwerde hatte ein Rechtsanwalt erhoben.

Zur Story