A.I .: Forscher zeigen, wie Maschinen durch Gespräche fälschen können

$config[ads_kvadrat] not found

Interview 2 - Teil 3/4 - Aufgaben und Wege Jesu - Hintergründe des Sonnenkults

Interview 2 - Teil 3/4 - Aufgaben und Wege Jesu - Hintergründe des Sonnenkults
Anonim

Zumindest für künstliche Intelligenz gilt: Sie haben selten Angst, dumm auszusehen. Wenn ein lernender A.I. Wenn Sie auf etwas außerhalb seines vorprogrammierten Wissens stoßen, wird es normalerweise nicht schüchtern sein, die Person, mit der es spricht, zu fragen, ob es klären soll.

Dies kann jedoch für den Menschen, der an Gesprächen mit dem Chatbot, dem Sprachassistenten oder dem allgemein bekannten Roboter beteiligt ist, ziemlich monotone Gespräche führen: „Was ist ein Apfel?“ „Was ist Tiramisu?“ „Was ist gepökeltes Fleisch?“ „Was wissen Sie? buchstäblich irgendetwas über Essen du dummes Rezept Chatbot?"

Sie haben die Idee, und wie Forscher der japanischen Osaka-Universität kürzlich in einem Scheinwerferlicht auf ihre Arbeit aufmerksam machen, deutet diese letzte Zeile auf das eigentliche Problem der KI hin: Fragen zu stellen ist vielleicht der beste Weg für sie, das zu lernen, aber das tut es nicht. Es zählt viel, wenn das Fragenbarret so irritierend oder langweilig ist, dass der Mensch weggeht. Es reicht nicht für die A.I. wissen, was es nicht weiß. Sie muss auch wissen, wie sie den Menschen so engagiert halten kann, dass er die Wissenslücken schließt.

Ihre neu entwickelte Methode verwendet die so genannte lexikalische Erfassung durch implizite Bestätigung. Dies ist im Grunde eine ausgefallene Art und Weise, dass künstliche Intelligenz sich jetzt genauso wie Menschen durch Gespräche schocken kann. Dieser Trick löst sich nicht dadurch, dass die Menschen gebeten werden, zu bestätigen, was etwas ist, sondern indem sie etwas anderes sagt, das den Gesprächspartner indirekt dazu bringt, den Instinkt der A.I. zu bestätigen oder zu verweigern.

Schauen wir uns ein Beispiel an.

Die A.I. weiß genug, um eine Vermutung über die Ursprünge des Ausdrucks „nasi goreng“ anzustellen, wenn er urteilt, es klingt indonesisch. Die Tatsache, dass der Mensch gesagt hat, dass sie es versuchen werden Koch Dieses Gericht deutet darauf hin, dass es sich um eine Art Lebensmittel handelt. erzeugt diese Aussage - nicht die Frage, obwohl man sich darin versteckt - über die Qualität indonesischer Restaurants in der Gegend.

Die A.I. Vermutlich könnten grundlegende Daten über kürzlich eröffnete Restauranteröffnungen und ihre Online-Bewertungen dazu verwendet werden, um herauszufinden, ob diese Aussage sachlich sinnvoll ist. Andernfalls könnte so etwas wie "Es muss wirklich mehr indonesische Restaurants in der Umgebung geben" geben, wenn nicht viele Optionen gefunden werden.

Dies ist jedoch nur, um die Verwirrung zu verringern, da selbst der Nichteinigung der Aussage der Mensch die zugrunde liegende Frage beantworten würde, ob Nasi Goreng Indonesier ist. Es ist nur, wenn die Person fragt, was der A.I. spricht davon, dass klar ist, dass die Maschine einen Fehler gemacht hat.

Wenn Sie also den Gedanken hatten, sich durch Gespräche auf Partys hindurch zu fälschen, könnten nur Menschen das tun … Entschuldigung, die Automatisierung kommt für uns alle.

$config[ads_kvadrat] not found