A.I. Expertin Virginia Dignum: Trolley-Problem zeigt, warum wir Transparenz brauchen

$config[ads_kvadrat] not found

#ÖFIT2018 – Keynote Prof. Dr. Dirk Helbing

#ÖFIT2018 – Keynote Prof. Dr. Dirk Helbing
Anonim

Künstliche Intelligenz braucht Transparenz, damit der Mensch sie zur Rechenschaft ziehen kann, behauptet ein Forscher. Virginia Dignum, Associate Professor an der Delft University of Technology, sagte am Freitag einem Publikum der New York University, dass wir ihre Entscheidungen nicht beurteilen können, wenn wir nicht verstehen, warum Maschinen sich so verhalten, wie sie sich verhalten.

Dignum zitierte eine Geschichte von David Berreby, einem wissenschaftlichen Schriftsteller und Forscher, der in veröffentlicht wurde Psychologie heute: "Es gibt Hinweise darauf, dass Menschen, wenn sie mit Maschinen arbeiten, weniger ein Gefühl der Entscheidungsfreiheit haben, als wenn sie alleine oder mit anderen Menschen arbeiten."

Das "Trolley-Problem", erklärte Dignum, ist ein Bereich, in dem die Menschen blind auf eine Maschine setzen können, um das richtige Ergebnis zu wählen. Die Frage ist, ob der Hebel eines hypothetischen außer Kontrolle geratenen Zuges so geschaltet werden soll, dass eine Person anstatt fünf getötet wird. Die Menschen erwarten, dass Maschinen das Problem auf möglichst rationale Weise lösen. Dies kann jedoch nicht immer der Fall sein, und Transparenz würde helfen zu erklären, wie die Maschine zu ihrer Entscheidung kam.

"Es ist nicht nur eine sehr tiefe, neuronale Netzwerkkette von Ereignissen, die niemand verstehen kann, sondern diese Erklärungen auf eine Weise zu machen, die die Menschen verstehen können", sagte sie.

A.I. Das macht die Arbeit der DARPA deutlich. Die Agentur veröffentlichte im August die Ankündigung, nach Teams zu suchen, die sich für erklärbare A.I. interessieren. Projekte, bekannt als XAI. Diese Systeme werden Forschern helfen zu verstehen, warum ein A.I. Sie entschied sich für die Entscheidung und gab mehr Spielraum, um zu entscheiden, was mit den resultierenden Informationen zu tun ist, als blind auf die Maschine zu vertrauen.

Beim maschinellen Lernen stellte Dignum fest, dass Transparenz wichtiger denn je ist. „Wir können nicht erwarten, dass die Systeme und insbesondere die maschinellen Lernmaschinen alles lernen und alles gleich wissen“, sagte sie. „Wir erwarten nicht, dass unsere Fahrer beim Fahren die Verkehrsgesetze vollständig verstehen. In vielen Ländern verwenden sie diese "L" -Platten, um zu zeigen: "Ich lerne, entschuldige mich für die Fehler, die ich machen könnte." Wenn man die KI betrachtet, versteht, wie es zu bestimmten Entscheidungen kommt, und darauf basierend zu handeln, wird entscheidend sein Maschinen zu stoppen, die noch lernen, schlechte Entscheidungen zu treffen.

$config[ads_kvadrat] not found