AI ist besser bei Kompromissen als Menschen, findet neue Studie

$config[ads_kvadrat] not found

Sophie Hellinger in Brasilien, Seminario no brasil 2020

Sophie Hellinger in Brasilien, Seminario no brasil 2020
Anonim

Seien wir ehrlich. Seitdem künstliche Intelligenz erstmals erfunden wurde, haben die Menschen Angst vor dem Tag, an dem unsere KI-Oberherren die Macht übernehmen. Aber einige Forscher haben die Fähigkeit der künstlichen Intelligenz nicht gerade getestet konkurrieren mit der Menschheit, aber auch zu zusammenarbeiten.

In einer Studie, die am Donnerstag in veröffentlicht wurde Nature Communications Ein Team von BYU-Informatikprofessoren, Jacob Crandall und Michael Goodrich, und Kollegen des MIT und anderer Universitäten entwickelten einen Algorithmus, um die Zusammenarbeit und den Kompromiss zwischen Maschinen zu vermitteln.

Die Forscher programmierten die Maschinen mit einem Algorithmus mit dem Namen S # und führten sie mit verschiedenen Partnern - Maschine-Maschine, Mensch-Maschine und Mensch-Mensch - durch eine Reihe von Spielen, um zu testen, welche Paarung zu den meisten Kompromissen führen würde. Maschinen (oder zumindest diejenigen, die mit S # programmiert sind) sind, wie sich herausstellt, viel besser im Kompromiss als Menschen.

Dies könnte jedoch mehr über „menschliches Versagen“ sagen, erzählt der leitende Forscher Jacob Crandall Inverse. "Unsere menschlichen Teilnehmer neigten dazu, untreu zu sein - sie würden in einer kooperativen Beziehung defekt sein - und unehrlich - etwa die Hälfte unserer Teilnehmer entschied sich, ihre Vorschläge nicht zu verfolgen - irgendwann in der Interaktion."

Maschinen, die programmiert waren, um Ehrlichkeit zu schätzen, waren andererseits ehrlich. „Dieser spezielle Algorithmus lernt, dass moralische Eigenschaften gut sind. Es ist so programmiert, dass es nicht lügt, und es lernt auch, die Zusammenarbeit aufrechtzuerhalten, sobald es entsteht, “sagt Crandall.

Darüber hinaus stellte die Untersuchung fest, dass bestimmte Kooperationsstrategien wirksamer sind als andere. Eine davon waren „billige Gespräche“, einfache verbale Signale, die auf eine bestimmte Situation reagieren, wie „Süß“. Wir werden reich! “Oder„ Ich akzeptiere Ihren letzten Vorschlag. “Oder, um Unmut auszudrücken:„ Verfluche dich! “„ Dafür wirst du bezahlen! “Oder sogar„ In deinem Gesicht! “

Unabhängig davon, welche Art von Spiel gespielt wurde oder wer spielte, verdoppelte billiges Gespräch die Menge der Zusammenarbeit. Es hat auch die Maschinen humanisiert, wobei menschliche Spieler oft nicht erkennen können, ob sie mit einer Maschine oder einem Menschen interagieren.

Da der Fokus der Forschung auf dem Testen des S # -Algorithmus lag, besteht ein Manko der Forschung darin, dass kulturelle Unterschiede zwischen Menschen nicht berücksichtigt werden, die Einfluss darauf haben könnten, wie verschiedene menschliche Bevölkerungsgruppen Strategien wie „billiges Gespräch“ oder wie interpretieren Viele menschliche Spieler könnten sich täuschen oder betrügen.

In der letzten Kurzgeschichte von Isaac Asimovs berühmtem Buch von 1950 Ich Roboter - "The Evitable Conflict" - KI-Oberherrscher übernehmen tatsächlich den Planeten. Aber weil sie so vernünftig sind und mit unzerbrechlichen ethischen Regeln programmiert sind, ist dies eine gute Sache für die Menschheit. Und wie diese Studie zeigt, können wir Maschinen vertrauen, weil menschliche Interaktionen unordentlich und kompliziert sind. Vorausgesetzt natürlich, ob sie auf Ehrlichkeit programmiert wurden.

Abstrakt:

Seit Alan Turing sich künstliche Intelligenz vorstellte, wurde der technische Fortschritt oft an der Fähigkeit gemessen, Menschen in Nullsummen-Begegnungen (z. B. Schach, Poker oder Go) zu besiegen. Szenarien, in denen die Mensch-Maschine-Kooperation von Nutzen ist, aber nicht unerheblich ist, wurde weniger Aufmerksamkeit gewidmet, z. B. Szenarien, in denen die Präferenzen von Menschen und Maschinen weder vollständig aufeinander abgestimmt sind noch vollständig miteinander in Konflikt stehen. Zusammenarbeit erfordert keine reine Rechenleistung, sondern wird durch Intuition, kulturelle Normen, Emotionen, Signale und vorentwickelte Dispositionen erleichtert. Hier entwickeln wir einen Algorithmus, der einen modernen Verstärkungslernalgorithmus mit Mechanismen zur Signalisierung kombiniert. Wir zeigen, dass dieser Algorithmus mit Menschen und anderen Algorithmen auf Ebenen zusammenarbeiten kann, die der menschlichen Zusammenarbeit in einer Vielzahl von wiederholten stochastischen Spielen für zwei Spieler gleichkommen. Diese Ergebnisse zeigen, dass eine allgemeine Mensch-Maschine-Kooperation mit einem nicht-trivialen, aber letztendlich einfachen Satz algorithmischer Mechanismen erreicht werden kann.

$config[ads_kvadrat] not found