Kommentar

Der Computer prognostiziert Straftaten, die Beamten rücken aus. Bild: KEYSTONE

Die neue Polizei-Software darf keine Blackbox sein

Schweizer Polizeibehörden setzen vermehrt auf Daten-Analyse, um Straftaten zu verhindern. Der Einsatz solcher Prognose-Software müsse offen kommuniziert und die Bevölkerung einbezogen werden, meint Denis Simonet von der Piratenpartei.

02.10.14, 12:17 31.01.17, 13:32

denis simonet, piratenpartei schweiz

Es ist verständlich und richtig, dass der Staat mit der Zeit geht und die Chancen des digitalen Zeitalters nutzen will. Allerdings verbergen sich hinter neuen Möglichkeiten auch immer neue Gefahren, die es gegen die Vorteile abzuwägen gilt. Es ist genau so falsch, moderne Technologien zu verteufeln, wie sie unkritisch einzusetzen.

Faktisch wird immer dann verteufelt, wenn es um neue gesellschaftliche Phänomene geht, die durch eine starke Lobby bekämpft werden. Da denke ich zum Beispiel an den grenzenlosen Austausch von Kultur, der etwas Wunderbares für die Menschheit ist, dessen Bedeutung aber im öffentlichen Diskurs leider auf das Urheberrecht reduziert wird – und somit auf kommerzielle Interessen.

«Böses» bekämpfen

Auf der anderen Seite lässt sich der total unkritische Einsatz von moderner Technologie immer dort ausmachen, wo «Böses» bekämpft werden soll. Das führt nicht selten zu absurden Beschlüssen. Der Nationalrat zum Beispiel steht kurz davor, im neuen Überwachungsgesetz BÜPF das Einschleusen von Trojanern auf unsere Computer und Handys zu erlauben – obwohl es zahlreiche technische und rechtswissenschaftliche Argumente gibt, die dagegen sprechen.

Denis Simonet war erster Präsident der Piratenpartei Schweiz und ist heute als Vorstandsmitglied unter anderem für die Medienarbeit verantwortlich. bild: zvg

Beide Beispiele haben etwas gemeinsam: Es fehlt ein grundsätzliches Verständnis für die Technologien und es wird kein ausreichend breiter, öffentlicher Diskurs geführt. Und genau das gleiche passiert nun mit Precobs – der Software, die Verbrechen voraussagt. 

Die Parallele zum Film «Minority Report» ist offensichtlich; der Name Precobs unterscheidet sich gerade mal mit einem Buchstaben von den Precogs – also den drei Individuen, die im Film Verbrechen voraussagen und aufgrund deren Eingebungen Menschen weggesperrt werden. 

Dieses präventiv-staatliche Vorgehen führt zwar tatsächlich zu einer Welt mit weniger Verbrechen. Allerdings zeigt «Minority Report» auch eindrücklich auf, was alles schief gehen kann – und warum die Grenze zur Bestrafung von Gedankenverbrechen fliessend ist.

Es braucht eine öffentliche Diskussion

Als Orwell sein Buch «1984» schrieb, wollte er eigentlich vor dem Überwachungsstaat warnen. Und vor der Abschaffung der freiheitlichen Gesellschaft. Doch leider wurde das Buch von vielen als Anleitung für mehr Überwachung missverstanden. Und nun ist die Polizei drauf und dran, diesen Fehler bei der Verbrechensvorhersage zu wiederholen. Keine Analyse der Gefahren und keine Spur von kritischen Gedanken.

Egal, wie gut die eingesetzte Software Verbrechen vorhersagen kann: Bevor sie zum Einsatz kommt, braucht es einen breiten, öffentlichen Diskurs und schlussendlich einen politischen Entscheid, ob, wie und innerhalb welcher Grenzen solche Technologien zum Einsatz kommen dürfen. Dabei muss die Bevölkerung einbezogen werden und es muss transparent kommuniziert werden, was genau getan wird. 

Die eingesetzte Software darf keine Blackbox sein. Es muss klar sein, wie die Resultate zustande kommen – genau so, wie die Ermittlungsschritte der Polizei nachvollziehbar sein müssen, wenn sie eine Hausdurchsuchung beantragt.

Datenschützer müssen einbezogen werden

Besonders wichtig ist, dass es hier sowohl die physische wie auch die digitale Identität zu schützen gilt. Sprich: Es muss sichergestellt werden, dass die Software keine personenbezogenen Daten auswertet, wie etwa aus Facebook oder Twitter, und dass keine Fichen angelegt werden. 

Dabei müssen die Datenschützer als Überwacher einbezogen und mit ausreichend personellen und finanziellen Mitteln versehen werden. Ausserdem muss gewährleistet sein, dass niemand behelligt oder gar verhaftet wird, nur weil eine Software einen Namen ausgespuckt hat. Und Gedankenverbrechen dürfen nicht bestraft werden. 

Es drängt sich auch eine ganz grundsätzliche Frage auf: Soll die Polizei zur Behörde werden, die Verbrechensraten verwaltet, oder soll sie der Freund und Helfer sein? Ich denke, letzteres ist gerade in unserer Zeit wichtiger denn je. Nicht alle Probleme lassen sich mit Technik lösen. Im Gegenteil: Menschen mit gesundem Menschenverstand sind der Technik noch immer in vielen Belangen überlegen.

Wir wollen keine sterile Welt, wo alle Menschen so handeln, dass sie auf keinen Fall von der Software erfasst werden. Wir brauchen eine heterogene, belebte und freie Gesellschaft mit vielen kreativen und aufgeklärten Individuen. Wir müssen aufpassen, dieses Ziel nicht aus den Augen zu verlieren.

Abonniere unseren NewsletterNewsletter-Abo
Themen
11Alle Kommentare anzeigen
11
Um mit zudiskutieren oder Bilder und Youtube-Videos zu posten, musst du eingeloggt sein.
Youtube-Videos und Links einfach ins Textfeld kopieren.
600
  • Gelöschter Benutzer 05.10.2014 22:47
    Highlight Ich kann die zugrunde liegenden Ängste zT nachvollziehen, jedoch klärt die 5-teilige Serie hier auf Watson doch einiges, was jetzt nochmal aufgeworfen wurde. Der Entwickler erklärte das Prinzip der Software, was sie tut und kann und was sie nicht tut und kann.
    Niemand wird einfach festgenommen werden, weil es die Software voraussagt; das kann sie gar nicht, das Verbrechen muss zuerst begangen werden, zudem werden nicht personenspezifische Daten verwendet.

    Gewisse Befürchtungen in diesem Text sind fast schon ein wenig lächerlich, hat man die anderen Artikel gelesen.
    0 1 Melden
    • Denis Simonet 07.10.2014 14:09
      Highlight Das Problem ist nicht der aktuelle Zustand, sondern das, was werden kann. Mir waren vor Schreiben des Texts die anderen 4 Teile nicht bekannt. Es beruhigt mich auch, dass der Hersteller meine Sorgen zu teilen scheint.

      Dennoch darf dieser grosse Schritt nicht einfach so gegangen werden. Grenzen müssen gesetzt werden, bevor die Polizei bereits zu weit gegangen ist. Und die Realität zeigt, dass dies sehr schnell passieren kann.
      2 0 Melden
    • digichonder.ch 08.10.2014 14:10
      Highlight Es ist nicht nötig zu warten, um zu sehen, wohin das gehen kann (und wird - nur eine Frage des Geldes). Die USA sind uns da weit voraus.
      http://www.forbes.com/sites/michaelthomsen/2014/06/30/predictive-policing-and-the-fantasy-of-declining-violence-in-america/
      Den ersten Absatzu zu lesen genügt schon, um das mögliche Ausmass zu erkennen...
      1 0 Melden
    600
  • Le_Urmel 05.10.2014 22:43
    Highlight Es wird enden wie Minority Reprot. Irgendwann wird man verhaftet, weil eine Software dich als möglichen Schuldigen errechnet ...
    3 1 Melden
    • Denis Simonet 07.10.2014 14:33
      Highlight Wenn das so angegangen wird, wie im Text vorgeschlagen, habe ich diesbezüglich keine Bedenken. Es ist ja schon eine sehr praktische Sache. Sollte die Polizei weiterhin einfach tun, sehe ich auch grosse Probleme :(.
      0 1 Melden
    600
  • smoe 03.10.2014 00:30
    Highlight Grundsätzlich stimme ich dem Artikel zu. Ja, es fehlt ein grundsätzliches Verständnis für die Technologien – sowohl in der Politik als auch in der Bevölkerung – und es braucht einen breiten, öffentlichen Diskurs. Aber diese andauernden, hanebüchenen Vergleiche zu Science-Fiction-Filmen sind da alles andere konstruktiv. Klar, die dort geschilderten Gefahren sind real, aber es wäre doch sinnvoller, die Leute über die heutige Wirklichkeit der "Künstlichen Intelligenz" aufzuklären, anstatt bei jedem solchem System medienwirksam wahlweise Minority Report, Skynet oder 1984 zu schreien.

    Schliesslich warnt Orwell in seinem Werk nicht nur vor Überwachungsstaat, sondern auch vor Populismus und Propaganda;)
    6 0 Melden
    • Denis Simonet 03.10.2014 12:46
      Highlight Ich denke, es gibt einen kleinen aber feinen Unterschied zwischen populistischer Propaganda und repetitiver Meinungsäusserung :).

      Ich gebe dir recht, dass AI auch ein sehr spannendes Gebiet ist und immer wichtiger wird. Allerdings ist diese für die meisten noch abstrakter als Orwell und co. Deshalb habe ich mich auf das einfachere beschränkt - sonst wäre der Text etwas überladen geworden. Er ist ja jetzt schon sehr "voll".

      Hast du denn Literatur vor Augen, die man als Alternative zu den Klassikern lesen muss und zitieren könnte? Werde ich gerne tun!
      1 0 Melden
    • smoe 03.10.2014 20:34
      Highlight Mein Problem mit solchen Referenzen ist, dass in Film und Literatur AIs meist als übermächtig aber trotzdem menschlich dargestellt werden. Für die Geschichten ist das Zwischenspiel zwischen Mensch und Maschine, Empathie, Vertrauen, Misstrauen sehr wichtig, mit der heutigen Realität haben sie aber nicht viel gemein.

      Mann muss im Moment Computersystemen nicht vertrauen, sondern verstehen, wie sie funktionieren. Auch wenn eingesetzte Methoden wie Machine Learning, Neural Networks, Deep learning menschlich klingen sind es trotzdem "nur" statistische, mathematische Modelle, die Berechnungen anhand vorgegebenen Input und Abläufen ausspucken. Diese können relevant sein oder auch nicht.

      Nehmen wir den Facebook Feed. Dieser funktioniert aus meiner Sicht recht gut. Trotzdem habe ich ab und zu Posts die mich überhaupt nicht interessieren und verpasse andere, die relevant gewesen wären. Für mich ist wichtig, dass "predictive policing" Systeme von den Menschen – aber vor allem von den Polizisten und Richtern – nicht als eine Art Supermensch gesehen werden, sondern wie die anderen Feeds. Man sollte sicher ein Auge auf die vorhergesagten Verbrechen werfen, aber deshalb nicht blindlings gleich das SWAT-Team losschicken und andererseits auch nicht glauben, dass man dadurch nichts mehr verpasst.

      Ich habe auch Angst das sich die Diskussion zu stark auf die Technologie konzentriert. Ich finde aber es ist ziemlich irrelevant ob nun Software A oder B eingesetzt wird. Viel wichtiger ist, die Polizei von Datenquellen abzuschneiden mit denen sie die Software füttern könnten die aber völlig unverhältnismässig wären.

      Und sorry Watsons für das Überschreiten der 600 Zeichen Regel! Ich spendier dem Freischalter einen Kaffee, falls ich sie oder ihn mal treffen sollte:p
      3 0 Melden
    • smoe 03.10.2014 20:50
      Highlight Arg, mir ist ein Teil des letzten Kommentars rausgerutscht. Wollte eigentlich damit einleiten, dass ich es fälschlicherweise im Kopf hatte, dass es in Minority Report eine AI ist, die die Verbrechen voraussagt. Ich komme aber auf das Thema weil es bei den bei «precobs» und ähnlichen System eingesetzten Methoden um Teilgebiete der Künstlichen Intelligenz handelt.

      1984 ist aus meiner Sicht eigentlich schon die beste Referenz wenn es um Totalitarismus und Überwachungsstaat geht. Nur zu den Snowden Enthüllungen passt es nicht sehr gut:)
      0 0 Melden
    • Denis Simonet 07.10.2014 14:14
      Highlight Da gebe ich dir vollständig recht. Leider wird zu oft versucht, soziale Probleme mit ungeeigneten Mitteln zu lösen (Verbote, Überwachung, ...) und dabei der gesunde Menschenverstand auf der Strecke liegen gelassen. Das wird mit zunehmender Reife der Massendatenverarbeitung sicher nicht besser werden :(.
      1 0 Melden
    600
  • keplan 02.10.2014 14:55
    Highlight Super Bericht. Wünsch mir weitere solche Berichte von euch
    5 0 Melden
    600

Wie ich den Krieg gegen Disney und «Frozen» verlor

Seit dem 0:7 im Mini-Tischtennis gegen Sportchef Fehr habe ich mich nicht mehr so schlecht gefühlt. Absolute Hilflosigkeit, Ekel vor mir selbst, Ohnmachtsgefühle. Meine Freundin fühlte sich fast noch mieser: «Wenn ich gewusst hätte, dass ich so ende, hätte ich mich vor vier Jahren erschossen».

Es war eine Niederlage von epischem Ausmass. Wenigstens gab es auch eine Siegerin: unsere Tochter. Sie sass mit leuchtenden Augen und einem viel zu grossen Helm auf der Ursache des Übels, ihrem neuen Velo, …

Artikel lesen