So können wir den zukünftigen Schurken aufhalten A.I. von Imitieren von HAL 9000

$config[ads_kvadrat] not found

Tu So Ke Raat Guzar Li (Full Lyrical Song) Babbu Maan | Saun Di Jhadi

Tu So Ke Raat Guzar Li (Full Lyrical Song) Babbu Maan | Saun Di Jhadi
Anonim

Wie stoppen wir eine Zukunft? von ungehorsamen Befehlen und der Entscheidung, seinen eigenen Weg zu gehen? Es mag sich nach der Handlung anhören 2001: Eine Weltraum-Odyssee, aber ein Experte behauptet, es ist etwas, worüber wir vielleicht schon nachdenken müssen. Sicher, wir könnten den Google-Suchalgorithmus ausschalten, wenn er unberechtigt wäre, aber angesichts finanzieller und rechtlicher Konsequenzen kann es leichter gesagt als getan werden. In der Zukunft könnte sich dies als unmöglich erweisen, da wir von fortschrittlicherer A.I. abhängig werden.

„Dieser Algorithmus wurde nicht bewusst entworfen selbst Es ist unmöglich, neu zu starten oder auszuschalten, aber es ist eine gemeinsame Entwicklung, um so zu sein “, sagte Stuart Armstrong, Forscher am Future of Humanity Institute, am Mittwoch auf dem Pirate Summit 2016. Dies bedeutet, dass eine Änderung mit unbeabsichtigten Ergebnissen möglicherweise schwer zu korrigieren ist und möglicherweise nicht die erste A.I. sich in dieser Situation zu finden.

Isaac Asimovs Lösung waren die drei Gesetze der Robotik, die Ideen hart kodieren, wie zum Beispiel, dass sie den Menschen nicht schädigen. Das Problem ist, dass Schaden eher subjektiv ist und interpretierbar ist. Menschen arbeiten mehr an Werten, zum Beispiel, dass es schlecht ist, Schaden zu verursachen und die Situation zu interpretieren, als an einer harten Regel zu arbeiten, dass sie niemals Schaden anrichten sollten.

"Aufgrund dieses Problems sind die Menschen jetzt viel mehr daran interessiert, maschinelles Lernen zu nutzen, um Werte zu erhalten, anstatt zu versuchen, sie auf diese traditionelle Weise zu kodieren", sagte Armstrong. „Werte sind so stabil, dass andere Dinge nicht in A.I. Werte verteidigen sich intrinsisch. “

Aber auch in diesen Situationen ist es wichtig, A.I. um sie unterbrechbar zu machen, während sie laufen. Sichere Unterbrechungsfähigkeit ermöglicht sichere Richtlinienänderungen, die unbeabsichtigte Folgen von gelernten Werten vermeiden können. Wenn die HAL 9000 jemals versucht hat, die Türen des Pod-Schachts am Öffnen zu hindern, ist es wichtig, dass wir feststellen können, dass die Werte der A.I. beschädigt sind und eingreifen, ohne das System offline zu setzen.

$config[ads_kvadrat] not found