“Predictive Policing” gehört in verschiedenen Ländern schon zum festen Bestandteil der Polizeiarbeit. Mit der Analyse vorliegender Daten identifiziert die Polizei z.B. Gebiete, die in naher Zukunft von besonders vielen Einbrüchen betroffen sein könnten. Aus dieser Risikoeinschätzung können die Ermittler dann ableiten, wo sie in den kommenden Wochen besonders auf verdächtige Personen achten sollten, häufiger Streife fahren, und ähnliches.
So weit, so gut. Doch wenn ein Algorithmus den “Lügendetektor” mimt, sich die drei „Precogs“ Agatha, Arthur und Dashiell zum Vorbild nimmt und mittels “Künstlicher Intelligenz” das individuelle Gefährdungspotential von Menschen vorhersagen soll, wird es kompliziert. “Minority Report”, anyone?
Das Schweizer Polizeikorps setzt einen Algorithmus ein, der die Gefährlichkeit von Einzelpersonen und deren potentielle Neigung zu Gewaltverbrechen beurteilen soll. Grundlage der Beurteilung ist eine Datenbank mit mehr als 3000 Personen. Eine bisher unveröffentlichte, dem SRF vorliegende Studie offenbart, dass dieser Algorithmus zwei von drei Personen falsch verdächtigt – was für die Betroffenen enorme Konsequenzen haben kann.
Die Software nennt sich “Dynamisches Risiko-Analyse-System”, kurz Dyrias, und stammt vom deutschen Unternehmen “Institut Psychologie und Bedrohungsmanagement”. Die Software besteht aus verschiedenen Modulen, die sich offenbar für eine bestimmte Gruppe von Befragten – z.B. lebens- oder Ehepartner eignen. Sie verlangt simple Ja-Nein-Antworten auf verschiedene Fragen, von denen schon die Hälfte zur ersten Einschätzung eines Gefährders ausreichen soll.
Weiterlesen:
- Polizei in London will Verbrechen vorhersehen
- ShotSpotter: Diese Technologie lokalisiert Schiessereien
Die Antworten der befragten Person werden gespeichert und analysiert, dann erfolgt eine Gefahreneinstufung auf einer Skala von 0 bis 5. Wer von der Software mit einer “4” bewertet wird, zeigt angeblich massive Anzeichen für die Ausübung einer schweren Gewalttat.
Problematisch ist, dass die Staatsanwaltschaft auf dieser Grundlage und dem Urteil der befragenden Polizeibeamten z.B. eine Untersuchungshaft beantragen kann, ohne dass ein konkreter, begründeter, vom Urteil der Software unabhängiger Verdacht vorliegt. Die “Warnsignale”, die die Software angeblich erkennen will, reichen. Problematisch ist auch, dass Resultate der Software für zehn Jahre in den Datenbanken der Behörden gespeichert werden und in diesem Zeitraum jederzeit die Anordnung einschneidender Massnahmen begründen könnten.
Der Hersteller selbst verspricht, dass Dyrias eine “exzellente Erkennung von Hochrisikofällen” ermögliche und über 80% aller zukünftigen Gewalttäter entdecken könne. Doch eine Evaluierung dieser Angaben offenbart, dass die Software zwei Drittel der als gefährlich eingestuften Personen zu Unrecht als “massiv zur Gewalt neigend” eingestuft hatte. Der Forensiker Andreas Frei, der die Evaluierung erstellte, setzt Dyrias ebenfalls ein – sieht aber auch die Risiken.
66% Fehlerquote: Die Software neigt offenbar dazu, das von einem Menschen ausgehende Risiko zu überschätzen – womit sich der Hersteller wiederum dem Risiko entzieht, einen eigentlich tatsächlich gefährlichen Menschen als ungefährlich(er) einzustufen. Die Strafrechtsprofessorin Nadja Capus von der Universität Neuenburg stellt die Verwendung ähnlicher vorhersagender Tools ebenfalls in Frage:
“Es wird Objektivität suggeriert, aber tatsächlich wird das Instrument von einem Menschen gefüttert – mitsamt seinen Wertungen, Einschätzungen und Interpretationen. Wie kann man [ein Polizeibeamter] sich noch rechtfertigen, wenn man jemanden mit vermeintlich hohem Risiko laufen lässt – und dann wirklich etwas passiert?” Nadja Capus, Universität Neuenburg
via srf.ch