Video: Stunt-Darsteller können durch diese ersetzt werden A.I. Technologie einen Tag bald

$config[ads_kvadrat] not found

INSANE MONSTER TRUCK RACING #4 | Dirt Tracks, Crashes, and Freestyle Tournament - BeamNG Drive

INSANE MONSTER TRUCK RACING #4 | Dirt Tracks, Crashes, and Freestyle Tournament - BeamNG Drive
Anonim

Ein neues System für künstliche Intelligenz hat computeranimierte Stuntmen entwickelt, die Actionfilme cooler machen könnten als je zuvor. Forscher der University of California, Berkeley, haben ein System entwickelt, mit dem sie einige der glitzerndsten Bewegungen der Kampfkunst wieder herstellen können, mit der Möglichkeit, reale menschliche Akteure zu ersetzen.

UC Berkeley-Student Xue Bin „Jason“ Peng sagt, dass die Technologie zu Bewegungen führt, die sich nur schwer von denen des Menschen unterscheiden lassen.

"Dies ist tatsächlich ein ziemlich großer Sprung von dem, was mit tiefem Lernen und Animationen gemacht wurde", sagte Peng in einer Stellungnahme, die mit seiner Studie veröffentlicht wurde, die auf der SIGGRAPH-Konferenz 2018 im August in Vancouver, Kanada, präsentiert wurde. „In der Vergangenheit wurde viel Arbeit in die Simulation natürlicher Bewegungen investiert, aber diese auf Physik basierenden Methoden sind in der Regel sehr spezialisiert. Es handelt sich nicht um allgemeine Methoden, die eine Vielzahl von Fertigkeiten beherrschen.

„Wenn Sie unsere Ergebnisse mit Motion-Captures von Menschen vergleichen, kommen wir an einen Punkt, an dem es ziemlich schwierig ist, die beiden zu unterscheiden, zu sagen, was Simulation ist und was wirklich ist. Wir bewegen uns auf einen virtuellen Stuntman zu."

In der Zeitschrift wurde ein Projekt mit dem Namen DeepMimic veröffentlicht ACM Trans. Graph im August. Im September stellte das Team seine Code- und Bewegungserfassungsdaten auf GitHub zur Verfügung, damit andere es ausprobieren konnten.

Das Team verwendete tiefe Verstärkungslerntechniken, um dem System das Bewegen beizubringen. Die Bewegungsdaten wurden aus realen Performances erfasst, in das System eingespeist und so eingestellt, dass die Bewegungen in einer Simulation für einen ganzen Monat durchgeführt wurden, wobei 24 Stunden am Tag trainiert wurde. DeepMimic lernte 25 verschiedene Moves wie Tritte und Backflips und verglich jedes Mal die Ergebnisse, um zu sehen, wie nahe es an die ursprünglichen Mocap-Daten kam.

Im Gegensatz zu anderen Systemen, die wiederholt versucht und versagt haben könnten, hat DeepMimic den Schritt in Schritte aufgeteilt, sodass ein Fehler auftreten konnte, der die Leistung im richtigen Moment analysiert.

"Wenn diese Techniken Fortschritte machen, werden sie meiner Meinung nach in Filmen eine immer größere Rolle spielen", erzählt Peng Inverse. „Da Filme jedoch im Allgemeinen nicht interaktiv sind, können diese Simulationstechniken unmittelbare Auswirkungen auf Spiele und VR haben.

„Tatsächlich finden simulierte Charaktere, die mit verstärktem Lernen trainiert wurden, bereits den Weg zu Spielen. Indie-Spiele könnten für diese Ideen ein sehr schönes Testgelände sein. Es kann jedoch eine Weile dauern, bis sie für AAA-Titel bereit sind, da die Arbeit mit simulierten Charakteren eine ziemlich drastische Verschiebung von herkömmlichen Entwicklungs-Pipelines erfordert. “

Spieleentwickler beginnen mit diesen Tools zu experimentieren. Einem Entwickler gelang es, DeepMimic in der Unity-Spielengine zu verwenden:

Sehr geehrte Damen und Herren, wir haben den Backflip abgeschlossen! Herzlichen Glückwunsch an Ringo, alias StyleTransfer002.144 - mit # unity3d + #MLAgents & #MarathonEnvs. StyleTransfer trainiert ein #ActiveRagoll von MoCap-Daten, auch bekannt als Deepmimic http://t.co/gAGtYYeawE… #madewithunity pic.twitter.com/3iIoDsfdLe

- Joe Booth (@iAmVidyaGamer), 1. November 2018

Peng hofft, dass die Veröffentlichung des Codes seine Annahme beschleunigen wird. Er weist auch darauf hin, dass das Team "mit einer Reihe von Spieleentwicklern und Animationsstudios über mögliche Anwendungen dieser Arbeit gesprochen hat, obwohl ich noch nicht zu viele Details dazu machen kann."

Maschinen haben regelmäßig mit komplexen Bewegungen zu kämpfen, wie die Roboter beim Fußballspielen zeigen, die sanft über das Gras stürzen, anstatt irgendwelche hochoktanigen Züge zu vollenden. Es gibt Anzeichen für Fortschritt, wie A.I. greift die Komplexität realer Bewegungen und beginnt, sich mehr wie Menschen zu korrigieren.

Vielleicht könnte DeepMimic eines Tages in wenigen Sekunden einen neuen Zug lernen, ähnlich wie Neo Kung Fu lernt Die Matrix.

Lesen Sie die Zusammenfassung unten.

Ein seit langem bestehendes Ziel der Charakteranimation besteht darin, datengesteuerte Verhaltensvorgaben mit einem System zu kombinieren, das in einer physikalischen Simulation ein ähnliches Verhalten ausführen kann, um realistische Reaktionen auf Störungen und Umgebungsvariationen zu ermöglichen. Wir zeigen, dass bekannte Verstärkungslernmethoden (RL-Methoden) angepasst werden können, um robuste Steuerungsrichtlinien zu erlernen, die eine Vielzahl von beispielhaften Bewegungsclips imitieren und gleichzeitig komplexe Wiederherstellungen erlernen, sich an Änderungen in der Morphologie anpassen und vom Benutzer festgelegte Ziele erreichen. Unsere Methode verarbeitet Keyframe-Bewegungen, hochdynamische Aktionen wie durch Bewegung erfasste Flips und Spins sowie Retarget-Bewegungen. Durch Kombinieren eines Bewegungsimitationsobjektivs mit einem Aufgabenziel können wir Charaktere trainieren, die in interaktiven Einstellungen intelligent reagieren, z. B. indem Sie in eine gewünschte Richtung gehen oder einen Ball auf ein vom Benutzer angegebenes Ziel werfen. Dieser Ansatz kombiniert somit die Bequemlichkeit und Bewegungsqualität der Verwendung von Bewegungsclips, um den gewünschten Stil und das gewünschte Erscheinungsbild zu definieren, mit der Flexibilität und Allgemeingültigkeit, die RL-Methoden und physikbasierte Animationen bieten. Des Weiteren untersuchen wir eine Reihe von Methoden, um mehrere Clips in den Lernprozess zu integrieren, um Agenten mit mehreren Qualifikationen zu entwickeln, die ein reichhaltiges Repertoire an verschiedenen Fähigkeiten bieten können. Wir zeigen Ergebnisse mit mehreren Charakteren (Mensch, Atlas-Roboter, zweibeiniger Dinosaurier, Drache) und einer Vielzahl von Fähigkeiten, einschließlich Fortbewegung, Akrobatik und Kampfkunst.

$config[ads_kvadrat] not found