#ÖFIT2018 – Keynote Prof. Dr. Dirk Helbing
Künstliche Intelligenz braucht Transparenz, damit der Mensch sie zur Rechenschaft ziehen kann, behauptet ein Forscher. Virginia Dignum, Associate Professor an der Delft University of Technology, sagte am Freitag einem Publikum der New York University, dass wir ihre Entscheidungen nicht beurteilen können, wenn wir nicht verstehen, warum Maschinen sich so verhalten, wie sie sich verhalten.
Dignum zitierte eine Geschichte von David Berreby, einem wissenschaftlichen Schriftsteller und Forscher, der in veröffentlicht wurde Psychologie heute: "Es gibt Hinweise darauf, dass Menschen, wenn sie mit Maschinen arbeiten, weniger ein Gefühl der Entscheidungsfreiheit haben, als wenn sie alleine oder mit anderen Menschen arbeiten."
Das "Trolley-Problem", erklärte Dignum, ist ein Bereich, in dem die Menschen blind auf eine Maschine setzen können, um das richtige Ergebnis zu wählen. Die Frage ist, ob der Hebel eines hypothetischen außer Kontrolle geratenen Zuges so geschaltet werden soll, dass eine Person anstatt fünf getötet wird. Die Menschen erwarten, dass Maschinen das Problem auf möglichst rationale Weise lösen. Dies kann jedoch nicht immer der Fall sein, und Transparenz würde helfen zu erklären, wie die Maschine zu ihrer Entscheidung kam.
"Es ist nicht nur eine sehr tiefe, neuronale Netzwerkkette von Ereignissen, die niemand verstehen kann, sondern diese Erklärungen auf eine Weise zu machen, die die Menschen verstehen können", sagte sie.
A.I. Das macht die Arbeit der DARPA deutlich. Die Agentur veröffentlichte im August die Ankündigung, nach Teams zu suchen, die sich für erklärbare A.I. interessieren. Projekte, bekannt als XAI. Diese Systeme werden Forschern helfen zu verstehen, warum ein A.I. Sie entschied sich für die Entscheidung und gab mehr Spielraum, um zu entscheiden, was mit den resultierenden Informationen zu tun ist, als blind auf die Maschine zu vertrauen.
Beim maschinellen Lernen stellte Dignum fest, dass Transparenz wichtiger denn je ist. „Wir können nicht erwarten, dass die Systeme und insbesondere die maschinellen Lernmaschinen alles lernen und alles gleich wissen“, sagte sie. „Wir erwarten nicht, dass unsere Fahrer beim Fahren die Verkehrsgesetze vollständig verstehen. In vielen Ländern verwenden sie diese "L" -Platten, um zu zeigen: "Ich lerne, entschuldige mich für die Fehler, die ich machen könnte." Wenn man die KI betrachtet, versteht, wie es zu bestimmten Entscheidungen kommt, und darauf basierend zu handeln, wird entscheidend sein Maschinen zu stoppen, die noch lernen, schlechte Entscheidungen zu treffen.
Wir brauchen keine Angst vor der bevorstehenden Roboterübernahme zu haben, wenn wir über die Zukunft sprechen
Das Jahr ist 2016 und die Menschheit, die sich endlich an die irdische Vorherrschaft gewöhnt hat, befindet sich in einer seltsamen Art von Schwindel. Die Technologien, die die Natur der menschlichen Laune ablenkten und die Belastung der Landwirtschaft und des Industrie- und Informationszeitalters verringerten, sind so weit fortgeschritten, dass sich eine automatische Revolution alm ...
'Baskets' zeigt, warum wir die lieben, die wir lieben
In der neuen FX-Serie Baskets spielt Zach Galifianakis die Rolle von Chip Baskets, einem gescheiterten Clown, der einen Job als Rodeo-Clown in Bakersfield, Kalifornien, akzeptiert, nachdem er die Clownschule in Paris nicht bestanden hat. Er kehrt nach Hause zurück, um die Stücke seines vermeintlich elenden Lebens zu sammeln, begleitet von einem schrecklich ...
Die Zukunft der fahrerlosen Autos: Wo wir hin wollen, brauchen wir mehr Straßen
Das größte Negativ, über das niemand wirklich spricht, ist, wie fahrerlose Autos wahrscheinlich mehr Straßen bedeuten - was bedeutet, dass die meisten anderen positiven Effekte, die wir von dieser Technologie erwarten würden, im Wesentlichen aufgehoben würden.