In San Francisco wird ein Algorithmus getestet, um die Kaution vor dem Gerichtsverfahren festzulegen

$config[ads_kvadrat] not found

Ich will meine Kaution zurück!

Ich will meine Kaution zurück!
Anonim

Die Strafjustiz steckt mitten in einer algorithmischen Veränderung.Rund 30 Gerichtsbarkeiten - darunter die gesamten Bundesstaaten Arizona, Kentucky und New Jersey sowie Städte wie San Francisco und Chicago - haben einen Algorithmus getestet, der die Kosten einer Kaution auf der Grundlage landesweiter Strafregisterdaten festlegt. Nicht alle Richter sind notwendigerweise bereit, die digitalen Empfehlungen zu Herzen zu nehmen.

Der Algorithmus wurde von der in Houston ansässigen Laura und John Arnold Foundation entwickelt und wird als Public Safety Assessment (PSA) bezeichnet. Das Ziel des Algorithmus ist es, mit Hilfe von Daten aus 1,5 Millionen präprozialen Fällen Vorurteile aus der Sicherheitsleistung zu ziehen. In der Vergangenheit haben Algorithmen jedoch die gleichen Vorurteile der Menschen getragen, die sie herstellen.

Je nach Website der Stiftung werden neun Faktoren in den Algorithmus einbezogen:

  • Ob das aktuelle Vergehen gewalttätig ist
  • Ob die Person zum Zeitpunkt der Festnahme eine ausstehende Gebühr hat
  • Ob der Betroffene zuvor eine Verurteilung wegen eines Vergehens hatte
  • Ob die Person eine strafrechtliche Verurteilung hat
  • Ob die Person wegen eines gewalttätigen Verbrechens vorher verurteilt wurde
  • Alter der Person zum Zeitpunkt der Festnahme
  • Ob die Person in den letzten zwei Jahren nicht bei einer Anhörung vor Gericht erschien
  • Ob die Person vor mehr als zwei Jahren nicht bei einer Anhörung vor der Verhandlung erschien
  • Ob die Person zuvor zu Inhaftierung verurteilt wurde.

Der Algorithmus berücksichtigt nicht Rasse, Geschlecht, Einkommen, Bildung, Beschäftigung oder Nachbarschaft. Dies macht laut PSA die PSA neutral.

Dennoch haben die Richter in San Francisco den Empfehlungen nicht konsequent gefolgt San Francisco Chronik Berichte.

San Francisco nutzte den Algorithmus, nachdem die Stadt von einer nationalen Bürgerrechtsgruppe verklagt worden war, die behauptete, exorbitante Kaution verletze die Armen mehr als die Reichen. Reiche Leute, die geringfügige Verbrechen begangen hatten, kauften sich aus dem Gefängnis heraus, während Arme, die sich keine übermäßigen Kaution leisten konnten, in einer Zelle gehalten wurden, bis ein Gerichtsverfahren stattfinden konnte.

Die PSA sollte das Spielfeld durch den Blick auf Daten und nicht durch die unmittelbare Straftat gleichstellen. Der Algorithmus verwendet historische Daten, um zu beurteilen, wie wahrscheinlich es ist, dass eine Person ein anderes Verbrechen begeht oder ein Gerichtsverfahren eintritt, wenn sie gegen Kaution gestellt wird. Minderheitsbericht Stil. Wenn die Wahrscheinlichkeit hoch ist, wird die Kaution höher gesetzt und umgekehrt.

Ein ähnlicher, von Northpointe entwickelter Algorithmus wurde verwendet, um die Entlassungsdaten für Gefangene zu bestimmen. ProPublica veröffentlichte im Mai die Ergebnisse einer Untersuchung, in der festgestellt wurde, dass die von Northpointe durchgeführten Algorithmen zur Risikobewertung unverhältnismäßig vorhergesagt hatten, dass schwarze Menschen nach ihrem Ausstieg eher ein anderes Verbrechen begehen würden als weiße. Nur 20 Prozent der Vorhersagen von Northpointe waren zutreffend.

Auf der anderen Seite helfen fortschrittliche Kartierungstechnologien und Big Data der Strafverfolgung, kriminelle Krisenherde zu identifizieren und polizeilich zu überwachen.

Der Algorithmus der Stiftung zielt darauf ab, eine ähnliche Verzerrung zu vermeiden, indem demografische Indikatoren entfernt werden. Ob es wirklich funktioniert oder nicht, wird sich jedoch erst dann zeigen, wenn die Richter über Präzedenzfälle und Intuition auf Algorithmen angewiesen sind.

$config[ads_kvadrat] not found