Dieser Roboter hat gelernt, wie man menschliche Forderungen ablehnt

$config[ads_kvadrat] not found

WEIBLICHER ROBOTER SAGTE, SIE WOLLE DIE MENSCHEN VERNICHTEN

WEIBLICHER ROBOTER SAGTE, SIE WOLLE DIE MENSCHEN VERNICHTEN
Anonim

Roboter müssen ebenso wie die Menschen lernen, wann sie „Nein“ sagen müssen. Wenn eine Anfrage unmöglich ist, sie schädigen oder von der anstehenden Aufgabe ablenken könnte, ist dies im besten Interesse eines Bot und seines Menschen für eine diplomatische Nein Danke Teil des Gesprächs sein.

Aber wann sollte eine Maschine zurücksprechen? Und unter welchen Bedingungen? Ingenieure versuchen herauszufinden, wie sie dieses Gefühl dafür vermitteln können, wie und wann man sich mit Humanoiden befehlen kann.

Sieh zu, wie dieser Nao-Roboter sich weigert, vorwärts zu gehen, da er weiß, dass er von der Tischkante fallen würde:

Einfaches Zeug, aber sicherlich unverzichtbar für die Kontrolle menschlicher Fehler. Die Forscher Gordon Briggs und Matthias Scheutz von der Tufts University entwickelten einen komplexen Algorithmus, mit dem der Roboter beurteilen kann, was ein Mensch von ihm verlangt, ob er dies tun sollte oder nicht, und entsprechend reagieren. Die Forschung wurde kürzlich auf einer Tagung des Vereins zur Förderung der künstlichen Intelligenz vorgestellt.

Der Roboter stellt sich eine Reihe von Fragen, ob die Aufgabe machbar ist. Weiß ich, wie es geht? Kann ich es jetzt körperlich tun? Bin ich normalerweise körperlich dazu in der Lage? Kann ich es jetzt machen? Bin ich aufgrund meiner sozialen Rolle dazu verpflichtet? Verstößt es gegen ein normatives Prinzip, um es zu tun?

Das Ergebnis ist ein Roboter, der nicht nur sinnvoll erscheint, sondern eines Tages sogar klug ist.

Beachten Sie, wie Nao seine Meinung ändert, wenn er nach dem Versprechen des Menschen, ihn zu fangen, vorwärts geht. Es wäre leicht, sich ein anderes Szenario vorzustellen, in dem der Roboter sagt: "Auf keinen Fall, warum sollte ich Ihnen vertrauen?"

Aber Nao ist von Natur aus ein soziales Wesen. Den Menschen zu gefallen ist in seiner DNA, so dass er angesichts der Informationen, die der Mensch fangen will, blindlings in den Abgrund vorrückt. Sicher, wenn der Mensch sein Vertrauen täuschen würde, wäre er hochgezogen, aber er vertraut trotzdem. Es ist Naos Weg.

Wenn die Begleiter von Robotern immer raffinierter werden, müssen sich Roboteringenieure mit diesen Fragen auseinandersetzen. Die Roboter müssen nicht nur Entscheidungen über die Wahrung ihrer eigenen Sicherheit treffen, sondern auch über größere ethische Fragen. Was ist, wenn ein Mensch einen Roboter zum Töten auffordert? Betrug begehen Einen anderen Roboter zerstören?

Die Idee der Maschinenethik kann nicht von künstlicher Intelligenz getrennt werden - selbst unsere fahrerlosen Autos der Zukunft müssen so konstruiert werden, dass sie für uns Leben oder Tod entscheiden können. Dieses Gespräch wird notwendigerweise komplexer sein als nur Marschbefehle zu liefern.

$config[ads_kvadrat] not found