Video enthüllt die überraschenden Herausforderungen des Unterrichts A.I. sich anziehen

$config[ads_kvadrat] not found

Enth E Nd (Official Video) - Linkin Park

Enth E Nd (Official Video) - Linkin Park
Anonim

In ein T-Shirt zu kriechen, könnte eine der wenigen Aufgaben sein, die wir Menschen tun können, selbst wenn wir kaum wach sind und uns immer noch den Schlaf aus den Augen kratzen. Aber die Tatsache, dass wir es verstanden haben, uns (mehr oder weniger) anzuziehen, ist der Ansicht, wie komplex die Bewegungsserie ist, die erforderlich ist, um sich vom Buff zu erheben und genug gekleidet zu sein, um die Türen wirklich zu verlassen.

Eine Person, die dies so gut versteht wie jeder andere, ist Alex Clegg, ein promovierter Informatiker. Student am Georgia Institute of Technology, der sich auf maschinelles Lernen konzentriert hat, um künstliche Intelligenz zu nutzen, wie man sich kleidet. Wie er erzählt Inverse, während A.I. ist klug genug, um vorherzusagen, welche Patienten Sepsis bekommen werden oder wie man Weltmeister in komplexen Strategiespielen herausfordert. Das Lehren von Maschinen, wie man ein Hemd anzieht, hat sich als schwer fassbares Ziel erwiesen.

„Stoff ist komplex“, erklärt er in einer E-Mail. "Sie kann sofort und drastisch auf kleine Veränderungen in der Körperposition reagieren und hält häufig die Bewegung einschränken … Kleidung neigt auch dazu, sich zu falten, zu kleben und am Körper zu haften, was Haptik oder Berührungsempfinden für die Aufgabe wesentlich macht."

Warum also versucht ein Computerfreak genau, wie wir uns morgens anziehen? Clegg erklärte, dass es einige mögliche Anwendungen für A.I. gibt. das versteht die täuschend einfach wirkende Anziehungskunst. Kurzfristig könnten die Erkenntnisse von Clegg genutzt werden, um die Erstellung realistischer 3D-Animationen eines Tages zu beschleunigen. Noch wichtiger ist jedoch, dass diese Erkenntnisse dazu beitragen können, Assistenzroboter zu entwickeln, die dazu beitragen, Menschen wie jung und alt zu pflegen.

Die Forscher lehrten zunächst einen Computer, wie man einen Arm in den Ärmel bekommt. In dem Vortrag, der auf der bevorstehenden SIGGRAPH Asia 2018-Konferenz zu Computergraphik im Dezember präsentiert wird, erläuterten Clegg und seine Kollegen die genaue Technik, die sie verwendeten, eine Art maschinelles Lernen, das als „tiefes verstärktes Lernen“ bezeichnet wird.

Ziel des vertieften Lernens ist es, Robotern zu vermitteln, wie sie bestimmte Bewegungen und Aufgaben ausführen, indem sie sie immer und immer wieder ausführen lassen. Im Fall des Verbandes A.I. hatte Cleggs Team die A.I. beobachten Sie die virtuelle Prozessumgebung, replizieren Sie sie und belohnen Sie sie, wenn sie auf dem richtigen Weg zu sein schien.

Clegg erklärte, dass es Hunderttausende Versuche brauchte, damit der animierte, wurstförmige Charakter lernen konnte, wie man eine Jacke oder ein T-Shirt anzieht. Schließlich musste ihr Bot lernen, wie man Berührungen wahrnimmt, damit er das Hemd zerren kann, wenn es nötig ist. Darüber hinaus mussten sie auch eine Physik-Engine integrieren, um die Simulation so genau wie möglich zu machen.

Am Ende gelang es Cleggs unbeholfenem, animiertem Sohn, zu lernen, wie man sein Hemd anzieht, wenn auch ein bisschen unelegant. Dennoch können die Ergebnisse als Nachweis des Konzepts für den Einsatz von tiefgreifendem Lernen zur Lösung nuancierter Probleme äußerst nützlich sein.

"Es ist aufregend, sich eine Vielzahl von Problemen vorzustellen, die wir durch tiefes und verstärktes Lernen lösen können", sagt er. „Wir freuen uns darauf, die Robotik weiter voranzutreiben und Lösungen für große Probleme zu finden, die den Alltag vieler Menschen beeinflussen.“

Die Umstellung der Ergebnisse dieser Studie auf die Arbeit mit Robotik erfordert etwas mehr Arbeit, um sowohl die Software- als auch die Hardwareaspekte zu harmonisieren. Die Ergebnisse von Clegg bieten jedoch einen Weg für Forscher, die daran interessiert sind, unsere futuristischen Roboter-Betreuer von ihren derzeitigen Einschränkungen zu befreien.

$config[ads_kvadrat] not found