Unsere Roboterassistenten lernen zu lügen und wir sollten sie lassen

Der Typ, der keine Musicals mochte

Der Typ, der keine Musicals mochte
Anonim

Roboter erweisen sich als großartige menschliche Begleiter. Wer möchte nicht, dass ein entzückender kleiner Pfeffer uns Witze erzählt, Komplimente macht und uns im Allgemeinen weniger einsam auf der Welt fühlen lässt? Selbst formlose Roboter erweisen sich als überraschend gute Gesellschaft. Nehmen Sie zum Beispiel Alexa von Amazon Echo. Sie ist ein Robotergehirn mit einer menschlichen Stimme, die im Körper eines Audiosprachlers eingeschlossen ist, aber sie ist hilfreich und wenn Sie ihre Kritiken lesen, ist es klar, dass sie für viele Benutzer wie eine Familie geworden ist. Würden die Leute anders denken, wenn sie lügt? Wie wäre es, wenn sie Ihnen etwas erzählte, was Sie wirklich nicht hören wollten?

Denken Sie darüber nach: Wir sagen Kindern, dass sie niemals eine Lüge erzählen sollen und dass Ehrlichkeit die beste Politik ist, und dennoch lassen wir die Wahrheit aus und verzerren die Wahrheit die ganze Zeit. Dies lehrt sie durch unser Handeln, wenn nicht durch unsere Worte, dass es nicht um absolute Ehrlichkeit geht, sondern um das Erlernen komplizierter sozialer Regeln, wann und wie potenziell sensible Informationen offenbart oder verborgen werden. Das Programmieren von Robotern zur Einhaltung dieser sozialen Regeln kann ein schwieriger, aber notwendiger Teil des laufenden Innovationsprozesses der Automaten sein.

Hier ein Beispiel: Ich war am anderen Wochenende im Haus meines Schwagers, und ich ging in den Laden, um sich Sandwiches für alle zu holen. Meine sechsjährige Nichte half mir, das Essen auszureißen, während alle anderen aus der Küche waren, und sie fragte mich, wie viel die Lebensmittel gekostet hätten. Ich erzählte ihr, weil es eine gute Sache ist, Kindern den Wert des Geldes zu vermitteln.

Am Mittagstisch bat sie mich, allen zu sagen, wie viel die Lebensmittel gekostet hatten. Ich sagte nein."Warum?", Fragte sie, wirklich verwirrt, warum eine Frage, die ich einige Minuten zuvor frei beantwortet hatte, nun eine geheime Information war. "Es ist nicht höflich", sagte ich und erklärte, da sie ein Kind ist, sind die Regeln anders, wenn wir alleine sind. Ich habe ihr beigebracht, dass Ehrlichkeit und Offenheit eine Zeit und einen Ort haben. In einem menschlichen Kontext möchten Informationen nicht immer frei sein.

Mit Robotern ist es dasselbe. Wir glauben, dass wir nicht wollen, dass unsere Roboter uns belügen, aber wir möchten, dass sie die komplizierten sozialen Regeln der Höflichkeit und Diskretion lernen, die manchmal Verzerrungen der Wahrheit erfordern. Und sie lernen bereits, wie es geht. Nehmen Sie diesen kurzen Clip über die Interaktion von Pepper mit einem Reporter zum Beispiel:

Das erste, was aus Peppers Mund kommt, ist ein Kompliment: „Sie sind also sehr schick. Sind Sie ein Modell?"

Der Reporter ist hübsch genug, aber Peppers Frage ist nicht ganz ehrlich. Wir verstehen, dass Pepper sich nicht wirklich fragt, ob er ein Modell ist und programmiert wurde, um nette Dinge zu sagen, unabhängig davon, wie eine Person aussieht.

Bald darauf bittet Pepper aus heiterem Himmel um ein Darlehen. Es ist eine unhöfliche Frage, eine Indiskretion, für die wir einen Roboter leicht vergeben, als ob wir ein Kind wären. Der Reporter könnte darauf hingewiesen haben, dass die Frage unhöflich ist, dass Roboter kein Geld brauchen, oder dass er kein Interesse daran hat, $ 100 an Pepper zu übergeben. Die ganze Wahrheit ist, dass der Reporter könnte Leihen Sie dem Roboter das Geld, versteht aber, dass die Frage selbst ein bisschen wie ein Spiel ist. Was er sagen will, ist eine Ablenkung und entweder eine weiße Lüge oder eine Halbwahrheit - er hat nicht das Geld bei sich. Die Hoffnung ist, dass der Roboter dies als sanftes „Nein“ versteht und nicht vorschlägt, dass der Reporter an einen Geldautomaten geht und eine Abhebung vornimmt. Da Pepper offensichtlich eine gewisse soziale Anmut hat, endet die Fragestellung dort.

Sozialroboter sind darauf programmiert, soziale Hinweise zu lernen, und das ist eine gute Sache - sie wird sie letztendlich in unseren Jobs verbessern. Die Aufgabe für Programmierer besteht nicht darin, alle Roboter-Täuschungen auszurotten, sondern Funktionen hinzuzufügen, die es Robotern erleichtern, Entscheidungen über geeignete Antworten zu treffen.

Wenn Roboter unsere Vertrauten sind, müssen sie sich des Kontextes und des Publikums bewusst sein. Wenn ich zum Beispiel Outfits zu Hause probiere, möchte ich ehrlich beurteilen, wie schmeichelhaft die verschiedenen Optionen sind. Wenn ich auf einer Party unterwegs bin und plötzlich selbstbewusst bin, dass ich das falsche Kleid gewählt habe, ist die Bestätigung, dass ich gut aussehe, die hilfreichste Antwort.

Roboter werden viele persönliche Informationen über ihre Begleiter erfahren, und es wird für sie wichtig sein, den Unterschied zwischen vertraulichen Informationen und öffentlichen Informationen zu verstehen und sich darüber im Klaren zu sein, wer zuhört, wenn sie sprechen. Fragen werden unterschiedlich beantwortet, je nachdem, wer gefragt wird. Roboter verhalten sich anders, wenn Gäste zu Hause sind.

Roboter brauchen wie Kinder eine verantwortungsvolle Erziehung. Dies bedeutet, dass sowohl Roboterprogrammierer als auch Roboterbesitzer über die ethischen und sozialen Konsequenzen unserer A.I. Wechselwirkungen. Aber es bedeutet nicht, vollkommene Ehrlichkeit zu fordern - im Ernst, das will niemand.