Apple iPhone X kann chinesische Gesichter nicht voneinander trennen, Erstattung gewährt

$config[ads_kvadrat] not found

Apple Event — November 10

Apple Event — November 10
Anonim

Letzte Woche wurde in Nanjing, einer Großstadt im Osten Chinas, einer Frau mit Namen Yan zweimal eine Rückerstattung von Apple für ihr fehlerhaftes iPhoneX angeboten, das ihr Kollege mithilfe von Gesichtserkennungstechnologie freigeschaltet hatte. Beide Frauen sind ethnisch Chinesen.

Yan erzählte den lokalen Nachrichten, dass dies das erste Mal der Fall war, als sie die iPhone-Hotline anrief, aber sie glaubten ihr nicht. Erst als sie und ihr Kollege zu einem örtlichen Apple-Store gingen und den Mitarbeitern des Ladens zeigten, dass sie ihr eine Erstattung anboten, kaufte sie ein neues Telefon und dachte, dass möglicherweise eine defekte Kamera schuld wäre.

Das zweite Telefon hatte jedoch das gleiche Problem, was darauf hindeutet, dass es sich nicht um eine fehlerhafte Kamera handelte, wie die Arbeiter des Ladens vorschlugen, sondern ein Problem mit der Software selbst.

Dies wäre nicht der erste Fall, in dem Gesichtserkennungssoftware und die dahinterliegende KI Probleme hatten, nicht weiße Gesichter zu erkennen.

Im Jahr 2015 hat Google Fotos versehentlich ein Foto von zwei Afroamerikanern als Gorillas markiert, während 2009 HP-Computer (http://www.youtube.com/watch?v=t4DT3tQqgRM) Probleme beim Erkennen und Verfolgen von schwarzen Gesichtern hatten Kein Problem mit weißen Gesichtern. Im selben Jahr bemerkte Nikons Kamerasoftware, wie er ein asiatisches Gesicht als blinzelnd bezeichnete.

Google Fotos, du bist beschissen. Mein Freund ist kein Gorilla. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) 29. Juni 2015

"Dies ist im Grunde ein Datenproblem", schrieb Kate Crawford, eine der Hauptforscher bei Microsoft und Co-Vorsitzender des Gesellschaftssymposiums des Weißen Hauses in Obama und A.I. „Algorithmen lernen, indem sie bestimmte Bilder erhalten, die oft von Ingenieuren ausgewählt werden, und das System baut auf diesen Bildern ein Weltmodell auf. Wenn ein System auf Fotos von Menschen trainiert wird, die überwiegend weiß sind, wird es schwieriger sein, nicht weiße Gesichter zu erkennen. “

Jacky Alcine, der in Brooklyn ansässige Programmierer, dessen Foto von Google falsch etikettiert wurde, stimmte zu. Aus seiner Erfahrung sagte er: "Dies hätte mit genauer und vollständigerer Klassifizierung von Schwarzen vermieden werden können."

Der in die KI integrierte Rassismus hat jedoch, selbst wenn er unbeabsichtigt ist, Auswirkungen, die über die Gesichtserkennung hinausgehen.

Eine ProPublica-Untersuchung im Jahr 2016 ergab, dass schwarze Verbrecher doppelt so häufig waren fälschlicherweise als wahrscheinlich, Verbrechen als weiße Verbrecher wieder zu bezeichnen, während der wachsende Trend der "vorausschauenden Polizei" Algorithmen verwendet, um Verbrechen vorherzusagen und polizeiliche Ressourcen entsprechend zu steuern.

Minderheitengemeinschaften waren jedoch in der Vergangenheit überbewertet, was zu der Möglichkeit führte, dass "diese Software einen ohnehin schon teuflischen Zyklus fortbestehen lässt", sagt Crawford.

Zurück in Nanjing, China, erhielt Yan eine zweite Rückerstattung für ihr zweites iPhoneX. In lokalen Nachrichtenberichten ist nicht klar, ob sie einen dritten gekauft hat.

Das, was diesmal auf dem Spiel stand, mag nur ein einzelner Verbraucher gewesen sein. Der Fall von Yan war jedoch ein Beispiel für die anhaltende Notwendigkeit, dass die Technologiebranche im Hinblick auf Vielfalt und Inklusivität gestaltet.

$config[ads_kvadrat] not found