Verhindern Sie die Roboter-Apokalypse, indem Sie diese A.I. Frage der Moral

$config[ads_kvadrat] not found

12 ANOKHE DOST #Funny MIKO 2 | Types of Friends | Aayu and Pihu Show

12 ANOKHE DOST #Funny MIKO 2 | Types of Friends | Aayu and Pihu Show
Anonim

Es gibt eine moralische Robotikfrage und ein Szenario, die beantwortet werden müssen, damit die künstliche Intelligenz voranschreiten kann.

Stellen Sie sich vor, es gibt einen Roboter, der einen Minenschacht kontrolliert, und er erkennt, dass es einen Wagen gibt, der mit vier Bergleuten gefüllt ist, die außer Kontrolle geraten. Der Roboter kann sich dafür entscheiden, die Gleise zu verschieben und einen unbekannten Bergmann zu töten, wodurch die vier im Wagen gespeichert werden, oder die Gleise bleiben wie sie sind und die vier Bergleute können gegen eine Wand laufen und sterben. Welches würdest du nehmen? Würde sich Ihre Antwort ändern, wenn der eine Bergmann stattdessen ein Kind wäre? Wenn wir das nicht beantworten können, wie programmieren wir Roboter, um diese Entscheidung zu treffen?

Dies waren die Fragen, die sich Podiumsteilnehmer und das Publikum beim World Science Festival in New York mit dem Titel „Moralische Mathematik von Robotern: Kann Leben und Tod entscheiden können?“ Gestellt haben. Die meisten entschieden sich, den Wagen auf den einen Bergmann zu richten und die Person zu wechseln Für ein Kind hat sich nicht die Meinung vieler Befragter geändert, aber es war nicht einstimmig und die moralischen Entscheidungen des Menschen sind es oft nicht.

Es war ein ergreifendes Beispiel für die Kämpfe, denen sich die Menschheit stellen wird, während die künstliche Intelligenz weiter voranschreitet und wir mit der Möglichkeit umgehen, Roboter mit Moral zu programmieren.

"Ein Konzept wie Schaden ist schwer zu programmieren", sagte der Panelist Gary Marcus, Professor für Psychologie und Neurowissenschaften an der NYU und CEO und Mitbegründer von Geometric Intelligence, Inc. Er sagte, dass Konzepte wie Gerechtigkeit kein Schnickschnack sind Antwort auf das Programm und derzeit haben wir keine gute Moral für Roboter außerhalb der Gesetze von Asimov, die in Filmen wie gezeigt wurden ich Roboter.

Er sagte, es sei der Punkt, in dem er sich dem Gremium angeschlossen habe, um ein Gespräch darüber zu beginnen, wie wir die Robotermoral bekämpfen sollten.

Elon Musk diskutierte diese Woche über seine Sorge um künstliche Intelligenz und ging so weit, anzunehmen, dass wir alle in einer Art Simulation leben Die Matrix und dass Menschen in neuronale Spitzen investieren sollten, die sich an das Gehirn anheften und die kognitiven Fähigkeiten des Menschen erhöhen. Andere Futuristen wie Stephen Hawking haben vor den Gefahren von A.I. gewarnt. und diese Woche warnte Matt Damon das Gleiche in seiner Ansprache am MIT.

Andere Szenarien beinhalteten militarisierte autonome Waffensysteme und wie wir moralisch und philosophisch mit diesen menschlichen Entscheidungen auf dem Schlachtfeld umgehen und welche Entscheidungen autonome Autos in nicht allzu ferner Zukunft treffen müssen.

Die Diskussionsteilnehmer waren sich nicht einig, was zu tun ist, sagten jedoch, dass A.I. das sollte nicht aus dem Fenster geworfen werden, nur weil diese Fragen schwer sind. Sie schlugen vor, mehr über diese Art von moralischen Minenschacht-Fragen in der Öffentlichkeit zu sprechen, und vielleicht nähern wir uns der Verhinderung der Roboter-Apokalypse.

$config[ads_kvadrat] not found