Studie: Algorithmus, der "Vorurteile gegen Schwarze" hinter den Vorurteilen für schlechte Insassen-Rückfälligkeit ist

$config[ads_kvadrat] not found

Künstliche Intelligenz: Algorithmus hat Vorurteile gegenüber Schwarzen!

Künstliche Intelligenz: Algorithmus hat Vorurteile gegenüber Schwarzen!
Anonim

Algorithmen sind ebenso voreingenommen wie die Menschen, die sie herstellen. Eine Untersuchung von ProPublica fand heraus, dass Northpointe, Schöpfer eines Algorithmus, der versucht, die Wahrscheinlichkeit einer inhaftierten Person, ein anderes Verbrechen zu begehen, vorherzusagen, schwarze Menschen vorhergesagt haben, viel häufiger ein Verbrechen zu begehen, als weiße Personen.

Der Algorithmus erstellt eine Risikobewertung für Insassen. Es wird landesweit verwendet, um die Entlassungstermine der Gefängnisse festzulegen. Nach der Analyse von Daten für mehr als 7.000 Menschen in Broward County, Florida, ist die Realität rassistischer Algorithmen klar: Schwarze Angeklagte hatten fast doppelt so häufig die Wahrscheinlichkeit, dass weiße Angeklagte ein weiteres Verbrechen begehen.

Die Analyse kontrollierte nach Variablen wie Geschlecht und kriminellem Hintergrund. Es wird jedoch vorhergesagt, dass schwarze Menschen in der Zukunft 77% häufiger ein gewalttätiges Verbrechen begehen und 45% ein zukünftiges Verbrechen begehen. Beunruhigend ist auch, dass nur 20 Prozent der Vorhersagen von Northpointe, wer künftige Gewaltverbrechen begehen wird, zutreffend sind.

Northpointe verwendet 137 Fragen, um das Potenzial von Straftätern zu beurteilen. Wie ProPublica berichtet, vermeiden die Fragen die Frage nach dem Rennen. Einige der Fragen können jedoch verwandt sein.

Beispiele für die Fragen sind: "Wurde einer Ihrer Eltern jemals in ein Gefängnis oder in ein Gefängnis geschickt?" Und "Wie oft sind Sie in der Schule in Kämpfe gekommen?" Es gibt auch Ja / Nein-Fragen wie "Eine hungrige Person hat ein Recht." stehlen. “Zu den weiteren Faktoren zählen das Bildungsniveau und die Frage, ob eine Person einen Job hat oder nicht.

ProPublica hat in einem erläuternden Beitrag die genauen Methoden für den Zugriff auf und die Analyse der Daten von Northpointe detailliert beschrieben, und Northpointe schickte ein Schreiben an ProPublica, in dem es heißt, dass das Unternehmen "nicht der Ansicht ist, dass die Ergebnisse ihrer Analyse oder die darauf basierenden Behauptungen basieren Analyse korrekt sind oder dass sie die Ergebnisse der Anwendung des Modells genau widerspiegeln. “

Die Ergebnisse von ProPublica sind, wenn auch nicht unglaublich überraschend, besorgniserregend. Risikobewertungen werden zur Feststellung der Bewährung und zur Festlegung der Anleihebeträge verwendet. In neun Bundesstaaten wird sogar strafrechtlich verurteilt.

Technologie ist nicht die Endlösung für jedes Problem, vor allem wenn man bedenkt, dass die Technologie genauso fehlerhaft ist wie die Menschen, die sie herstellen.

$config[ads_kvadrat] not found