S. Schwarz: Trockenes Auge – Symptome und Ursachen in der Praxis systematisch aufarbeiten
Genau wie ein professioneller Koch oder ein Herzchirurg ist ein Algorithmus für maschinelles Lernen nur so gut wie das Training, das er erhält. Und da Algorithmen zunehmend die Herrschaft übernehmen und Entscheidungen für den Menschen treffen, stellen wir fest, dass viele von ihnen nicht die beste Ausbildung erhalten haben, da sie menschliche Rassen- und Geschlechterinteressen nachahmen und sogar neue Probleme schaffen.
Aus diesen Gründen ist es besonders wichtig, dass mehrere Staaten, darunter Kalifornien, New York und Wisconsin, Algorithmen verwenden, um vorherzusagen, welche Personen nach ihrer Inhaftierung erneut Verbrechen begehen. Schlimmer noch, es scheint nicht einmal zu funktionieren.
In einem Papier am Mittwoch in der Zeitschrift veröffentlicht Wissenschaftliche Fortschritte Ein Paar von Computerwissenschaftlern am Dartmouth College stellte fest, dass ein weit verbreitetes Computerprogramm zur Vorhersage von Rückfälligkeit nicht genauer ist als völlig ungeübte Zivilisten. Dieses Programm, genannt Correctional Offender Management Profiling für alternative Sanktionen, analysiert 137 verschiedene Faktoren, um festzustellen, wie wahrscheinlich es ist, dass eine Person nach der Entlassung ein weiteres Verbrechen begeht. COMPAS berücksichtigt Faktoren wie Substanzgebrauch, soziale Isolation und andere theoretisch vermutete Kriminologen, die zu Rückfälligkeiten führen können, wobei Personen als hoch, mittel oder gering eingestuft werden.
Und sicher, die Risikobewertung klingt gut. Warum sollten nicht mehr Daten zur Verfügung stehen, damit die Gerichte feststellen können, wer ein höheres Risiko darstellt? Dartmouths Informatiker Julia Dressel und Hany Farid stellten fest, dass Ungeübte das Rückfälligkeitsrisiko mit der gleichen Genauigkeit wie COMPAS richtig einschätzten, was darauf schließen lässt, dass die vermeintliche Stärke des Algorithmus nicht wirklich vorhanden ist.
In einer Studie, die nur einen Bruchteil der von COMPAS verwendeten Informationen enthielt (sieben statt 137 Faktoren und ohne Rasse), wertete eine Gruppe von Freiwilligen im Internet, bei der vermutlich keine Schulung zur Bewertung des Risikos von Kriminalfällen durchgeführt wurde, die Fallberichte aus. Sie schätzten den Rückfall einer Person mit einer Genauigkeit von 67 Prozent richtig ein, verglichen mit der Genauigkeit von COMPAS von 65 Prozent.
Nehmen Sie sich einen Moment Zeit, um das einzutauchen. Nicht trainierte Personen im Internet waren etwas besser in der Voraussage, ob eine Person ins Gefängnis zurückkehren würde als das Werkzeug, das buchstäblich entwickelt wurde, um vorherzusagen, ob eine Person ins Gefängnis zurückkehren würde. Und es wird schlimmer. Nachdem Sie die Rasse eines Angeklagten hinzugefügt haben, lagen die falsch-positiven und falsch-negativen Raten der Freiwilligen innerhalb weniger Prozentpunkte von COMPAS. COMPAS ist also nicht nur in der Lage, Rückfälle vorherzusagen, es ist genauso anfällig für Rassenvoreingenommenheit wie Menschen. Soviel zur kalten Logik von Computern.
Die Forscher erstellten dann ein lineares Modell, das mit nur zwei Faktoren der Vorhersagegeschwindigkeit von COMPAS entsprach: Alter und Anzahl früherer Verurteilungen. Um genau zu sein, diese Vorhersage wäre auch unfair, zeigt aber, wie fehlerhaft COMPAS ist.
Und obwohl diese Forschung neu ist, sind es die großen Imbisse, die sie befürwortet, nicht. Bei einer Untersuchung im Jahr 2016 ProPublica Reporter stellten fest, dass COMPAS nicht nur unzuverlässig ist, sondern auch systematisch gegen Afroamerikaner voreingenommen ist. Dabei wird Schwarz als konstantes Risiko eingestuft als für Weiße, die schwere Straftaten begangen haben. Diese neue Forschung wird hoffentlich dazu beitragen, den Weg für eine einfachere Risikobewertung im Strafjustizsystem zu ebnen.
Die Tatsache, dass COMPAS im besten Fall unbrauchbar ist und im schlimmsten Fall zutiefst voreingenommen ist, legt nahe, dass computerbasierte Risikobewertungen die Ungerechtigkeiten verstärken könnten, mit denen sich das Justizsystem befassen soll.Da Risikobewertungsbewertungen auf jeden Schritt des Strafjustizprozesses angewendet werden können, z. B. beim Festlegen einer Bürgschaft einer Person, bei der Feststellung, ob ihnen Bewährung gewährt wird, und in einigen Staaten sogar zur Feststellung der Strafe einer Person, legt diese Untersuchung nahe, dass dies dringend notwendig ist Überprüfen Sie die Verwendung von COMPAS und anderen Programmen.
Microsoft geht mit einer App, die Rückfälligkeit voraussagt, auf
In einem Webcast mit Polizeibehörden Anfang des Jahres ließ ein hochrangiger Microsoft-Programmierer vermuten, dass das Unternehmen eine App gründlich entwickelt hat, die vorhersagen kann, ob ein Insasse sechs Monate nach seiner Freilassung hinter Gittern liegen wird.
Studie: Algorithmus, der "Vorurteile gegen Schwarze" hinter den Vorurteilen für schlechte Insassen-Rückfälligkeit ist
Algorithmen sind ebenso voreingenommen wie die Menschen, die sie herstellen. Eine Untersuchung von ProPublica ergab, dass Northpointe, Schöpfer eines Algorithmus, der versucht, die Wahrscheinlichkeit einer inhaftierten Person für ein anderes Verbrechen vorherzusagen, vorhergesagt, dass schwarze Menschen viel eher ein Verbrechen begehen, als sie verlassen ...
Bill Nye sagt die Zukunft von Speck, der Umwelt, der Tiere und der Bakterien voraus
In einer weiteren Folge von "Future or Forgotten" blickt Bill Nye in 150 Jahren in die Zukunft.