• Folge Uns
    • Facebook
    • Twitter
    • Youtube
    • Flipboard
  • ENG
Mobilegeeks
  • Videos
  • Cars
  • Connected Life
  • IoT
  • Smartphones
  • Hardware
  • Tests
  • Podcast
  • Videos
  • Cars
  • Connected Life
  • IoT
  • Smartphones
  • Hardware
  • Tests
  • Podcast
Powered By GDATA
Powered By GDATA
Previous Story
Tesla "Autopilot": Over-the-Air in den Frontal-Cra ...

von Bernd Rubel

Next Story
6 starke Smartphone Alternativen ohne Notch

von Carsten Drees

Predictive Policing: Wenn Dich der Algorithmus in Untersuchungshaft bringt

Ein “Dynamisches Risiko-Analyse-System”, kurz Dyrias, will das Gewalt- und Gefährdungspotential eines Menschen mit simplen Ja-Nein-Fragen einordnen können. Doch die Software trifft anscheinend übertriebene Prognosen und könnte Ermittler unter Druck setzen. Für die Betroffenen hätte das enorme Konsequenzen.

von Bernd Rubel am 6. April 2018
  • Email
  • @markensysteme

“Predictive Policing” gehört in verschiedenen Ländern schon zum festen Bestandteil der Polizeiarbeit. Mit der Analyse vorliegender Daten identifiziert die Polizei z.B. Gebiete, die in naher Zukunft von besonders vielen Einbrüchen betroffen sein könnten. Aus dieser Risikoeinschätzung können die Ermittler dann ableiten, wo sie in den kommenden Wochen besonders auf verdächtige Personen achten sollten, häufiger Streife fahren, und ähnliches.

So weit, so gut. Doch wenn ein Algorithmus den “Lügendetektor” mimt, sich die drei „Precogs“ Agatha, Arthur und Dashiell zum Vorbild nimmt und mittels “Künstlicher Intelligenz” das individuelle Gefährdungspotential von Menschen vorhersagen soll, wird es kompliziert. “Minority Report”, anyone?

Das Schweizer Polizeikorps setzt einen Algorithmus ein, der die Gefährlichkeit von Einzelpersonen und deren potentielle Neigung zu Gewaltverbrechen beurteilen soll. Grundlage der Beurteilung ist eine Datenbank mit mehr als 3000 Personen. Eine bisher unveröffentlichte, dem SRF vorliegende Studie offenbart, dass dieser Algorithmus zwei von drei Personen falsch verdächtigt – was für die Betroffenen enorme Konsequenzen haben kann.

Die Software nennt sich “Dynamisches Risiko-Analyse-System”, kurz Dyrias, und stammt vom deutschen Unternehmen “Institut Psychologie und Bedrohungsmanagement”. Die Software besteht aus verschiedenen Modulen, die sich offenbar für eine bestimmte Gruppe von Befragten – z.B. lebens- oder Ehepartner eignen. Sie verlangt simple Ja-Nein-Antworten auf verschiedene Fragen, von denen schon die Hälfte zur ersten Einschätzung eines Gefährders ausreichen soll.

Weiterlesen:

  • Polizei in London will Verbrechen vorhersehen
  • ShotSpotter: Diese Technologie lokalisiert Schiessereien

Die Antworten der befragten Person werden gespeichert und analysiert, dann erfolgt eine Gefahreneinstufung auf einer Skala von 0 bis 5. Wer von der Software mit einer “4” bewertet wird, zeigt angeblich massive Anzeichen für die Ausübung einer schweren Gewalttat.

Problematisch ist, dass die Staatsanwaltschaft auf dieser Grundlage und dem Urteil der befragenden Polizeibeamten z.B. eine Untersuchungshaft beantragen kann, ohne dass ein konkreter, begründeter, vom Urteil der Software unabhängiger Verdacht vorliegt. Die “Warnsignale”, die die Software angeblich erkennen will, reichen. Problematisch ist auch, dass Resultate der Software für zehn Jahre in den Datenbanken der Behörden gespeichert werden und in diesem Zeitraum jederzeit die Anordnung einschneidender Massnahmen begründen könnten.

Der Hersteller selbst verspricht, dass Dyrias eine “exzellente Erkennung von Hochrisikofällen” ermögliche und über 80% aller zukünftigen Gewalttäter entdecken könne. Doch eine Evaluierung dieser Angaben offenbart, dass die Software zwei Drittel der als gefährlich eingestuften Personen zu Unrecht als “massiv zur Gewalt neigend” eingestuft hatte. Der Forensiker Andreas Frei, der die Evaluierung erstellte, setzt Dyrias ebenfalls ein – sieht aber auch die Risiken.

66% Fehlerquote: Die Software neigt offenbar dazu, das von einem Menschen ausgehende Risiko zu überschätzen – womit sich der Hersteller wiederum dem Risiko entzieht, einen eigentlich tatsächlich gefährlichen Menschen als ungefährlich(er) einzustufen. Die Strafrechtsprofessorin Nadja Capus von der Universität Neuenburg stellt die Verwendung ähnlicher vorhersagender Tools ebenfalls in Frage:

“Es wird Objektivität suggeriert, aber tatsächlich wird das Instrument von einem Menschen gefüttert – mitsamt seinen Wertungen, Einschätzungen und Interpretationen. Wie kann man [ein Polizeibeamter] sich noch rechtfertigen, wenn man jemanden mit vermeintlich hohem Risiko laufen lässt – und dann wirklich etwas passiert?” Nadja Capus, Universität Neuenburg

via srf.ch

Heiss diskutiert
2021 mit guten Datenschutz-Vorsätzen beginnen
von Michael Sprick
2021 mit guten Datenschutz-Vorsätzen beginnen
Die besten Apps für euer iPhone und iPad (Januar 2021)
von Felix Baumann
Die besten Apps für euer iPhone und iPad (Januar 2021)
“Repressive Maßnahme”- GB-Richterin widerspricht US-Auslieferung
von Michael Sprick
“Repressive Maßnahme”- GB-Richterin widerspricht US-Auslieferung
Telegram’s neues Feature “Leute in der Nähe” ist eine datenschutztechnische Vollkatastrophe
von Michael Sprick
Telegram’s neues Feature “Leute in der Nähe” ist eine datenschutztechnische Vollkatastrophe
Related Video
video
Microsoft Family Safety – Kindersicherung jetzt auch von Microsoft
Die IT-Sicherheitsprognosen für 2017
Security
Ähnliche Artikel
Dieser Algorithmus entziffert von euch unkenntlich gemachte Daten
18. Dezember 2020
Dieser Algorithmus entziffert von euch unkenntlich gemachte Daten
Ransomware-Attacke war doch nicht für Krankenhaus-Tote verantwortlich
16. November 2020
Ransomware-Attacke war doch nicht für Krankenhaus-Tote verantwortlich
Studie zur menschlichen Augmentation: Chance – oder eher gefährlicher Traum?
21. September 2020
Studie zur menschlichen Augmentation: Chance – oder eher gefährlicher Traum?
How To: Nachrichten, Daten und Verläufe bei Signal sichern
19. September 2020
How To: Nachrichten, Daten und Verläufe bei Signal sichern
Neueste Tests
8.7
Insgesamt bekommt man für den Preis wirklich gut funktionierendes und zuverlässiges Sicherheitssyste ...
Smartes Sicherheits-Set – Egardia und Philips Hue im Test
2. Juli 2018
Smartes Sicherheits-Set – Egardia und Philips Hue im Test
9.1
Für den persönlichen Gebrauch ist Lima Ultra eine hervorragende Lösung, um jederzeit Zugriff auf die ...
Lima Ultra – persönlicher Cloud-Speicher im Test
6. März 2017
Lima Ultra – persönlicher Cloud-Speicher im Test

Fernweh

Wir beschäftigen uns mit den Themen und der Technik von Morgen und Übermorgen - Von Smartcities über Sharing-Economy bishin zur Mobilität der Zukunft

Heiss diskutiert
2021 mit guten Datenschutz-Vorsätzen beginnen
von Michael Sprick
2021 mit guten Datenschutz-Vorsätzen beginnen
Die besten Apps für euer iPhone und iPad (Januar 2021)
von Felix Baumann
Die besten Apps für euer iPhone und iPad (Januar 2021)
“Repressive Maßnahme”- GB-Richterin widerspricht US-Auslieferung
von Michael Sprick
“Repressive Maßnahme”- GB-Richterin widerspricht US-Auslieferung
Telegram’s neues Feature “Leute in der Nähe” ist eine datenschutztechnische Vollkatastrophe
von Michael Sprick
Telegram’s neues Feature “Leute in der Nähe” ist eine datenschutztechnische Vollkatastrophe
Hubs
  • Laptops
  • Magazin
  • Smart Cars
  • Smartphone
  • Tablets
  • Wearables
Weitere Themen
  • OnePlus 5
  • Samsung Galaxy S8
  • LG G6
  • Microsoft Surface Laptop
  • Amazon Blitzangebote
  • Adblock Plus
  • Testberichte (Archiv)
  • ASUS
  • Microsoft
  • Apple
  • Sitemap
Intern
  • Sponsoring und Werbung
  • Über uns
  • Sponsorenübersicht
  • Impressum
  • Datenschutzerklärung
FOLGE UNS
Copyright © 2021 Mobilegeeks.de, Alle Rechte vorbehalten