Video zeigt, wie A.I. Erzeugte Kunst kann Ihre Träume sowohl hypnotisieren als auch verfolgen

$config[ads_kvadrat] not found

Können Computer Kunst erschaffen?

Können Computer Kunst erschaffen?

Inhaltsverzeichnis:

Anonim

Anfang dieses Monats verkaufte das Auktionshaus Christie's das, was es heißt, das erste von Algorithmen erzeugte Kunstwerk, das jemals von einem großen Auktionshaus verkauft wurde. Das Preisschild - fast eine halbe Million US-Dollar - hat eine Reihe von Fragen zu den Ursprüngen der Urheberschaft, dem von Neuheiten besessenen Kunstmarkt und, vielleicht am wichtigsten, aufgeworfen: Warum?

Dennoch sind die Bemühungen, Maschinen über Kunst oder genauer über Bilder zu unterrichten, kaum ein Werbegag. Um irreführende Videos besser zu erkennen und die Besetzung eines Films rückwirkend zu ändern, haben Computerwissenschaftler eine Reihe praktischer Gründe, Maschinen beizubringen, wie sie sich besser mit der visuellen Welt beschäftigen können.

Daniel Heiss ist ein solcher Technikfan. Der Kreativentwickler des ZKM-Zentrums für Kunst und Medien war ein früher Anwender eines neuronalen Netzwerks, das im April von NVIDIA-Forschern veröffentlicht wurde. Es wurde erstellt, um Bilder von imaginären Prominenten nach dem Training mit Tausenden von Fotos bestehender Promis zu erzeugen. Dies veranlasste Heiss dazu, 50.000 Fotobilder in einer interaktiven Kunstinstallation des ZKM einzufügen, um zu sehen, welche Art von Kunst seine A.I. würde produzieren. In einem Online-Interview erzählt er Inverse Die Ergebnisse waren besser als er sich jemals vorgestellt hatte.

„Ich sah die verrückte Verzerrung eines Gesichtsbildes in drei Gesichtsbilder in zwei Gesichtsbilder und so weiter. Das war viel besser, als ich je gedacht habe “, sagte er. "Ich habe sogar versucht, die Bilder so zu filtern, dass nur Bilder mit einem Gesicht verwendet werden, aber während ich daran arbeitete, waren die aus dem ungefilterten Datensatz generierten Samples so gut, dass ich damit aufhöre."

progressiv gewachsenes GAN (Karras et al.) trainierte auf ~ 80.000 Gemälden pic.twitter.com/fkNjw8m2uC

- Gene Kogan (@genekogan), 3. November 2018

Heiss 'Video hat seitdem mehr als 23.000 Upvotes auf Reddit gesammelt. Ursprünglich twitterte er das oben gezeigte Material am 4. November, als Reaktion auf eine weitere dreifache Verwendung des NVIDIA-Algorithmus durch den Programmierer Gene Kogan. Anstatt die neuronalen Netzwerk-Selfies zu füttern, verwendete Kogan ungefähr 80.000 Gemälde.

Kogan war auch begeistert von der Fähigkeit von A.I., Rahmen zu erstellen, die an verschiedene Stile erinnerten, anstatt alles zu mischen.

„Ich war überrascht, dass er so viele verschiedene Ästhetiken auswendig lernen kann, ohne dabei zu sehr durcheinander zu kommen“, erzählt er Inverse. "Ich denke, das ist der Effekt von mehreren hundert Millionen Parametern, mit denen man spielen kann."

Wie wir unterrichten A.I. eigene Bilder machen

Das von Tero Karras geleitete NVIDIA-Forschungsteam nutzte ein generatives gegnerisches Netzwerk (GAN), das ursprünglich von dem angesehenen Informatiker Ian Goodfellow im Jahr 2014 theoretisiert wurde. Dies war die zugrunde liegende Technologie hinter dem DeepDream-Tool von Google, das im Feld und online für Furore sorgte.

GAN besteht aus zwei Netzwerken: dem Generator und dem Diskriminator. Diese Computerprogramme konkurrieren millionenfach miteinander, um ihre Image-Generierungsfähigkeiten zu verfeinern, bis sie gut genug sind, um das zu schaffen, was schließlich als Deepfakes bekannt wird.

Der Generator wird mit Fotos versorgt und versucht, diese so gut wie möglich zu emulieren. Es zeigt dann das Original und die erzeugten Bilder dem Diskriminator an, dessen Aufgabe es ist, sie voneinander zu unterscheiden. Je mehr Versuche durchgeführt werden, desto besser wird der Generator beim Synthetisieren von Bildern und desto besser kann der Diskriminator sie unterscheiden. Dies führt zu einigen ziemlich überzeugenden - aber völlig falschen - Gesichtern und Gemälden.

Wie dieser Tech den Künstlern helfen kann

A.I. hat sich in der Kunstwelt bereits einen Namen gemacht. Neben dem computergenerierten Porträt, das bei Christie zum Verkauf angeboten wurde, hat DeepDream schon seit der Herstellung von Deepfakes trippige Landschaften gemacht.

Heiss glaubt, dass die heute entwickelten maschinellen Lernwerkzeuge von Künstlern genutzt werden können, doch erfordert dies technisches Können. Aus diesem Grund veranstaltet das ZKM seine Open Codes-Ausstellung, um die Zusammenarbeit zwischen Technologie- und Kreativbranche zu fördern.

"Werkzeuge, die jetzt auf den Markt kommen, können für Künstler sehr nützliche Werkzeuge sein, aber für einen Künstler ohne Kenntnisse der Programmier- und Systemadministrationsfähigkeiten ist es schwierig, sie zu verwenden", sagte er. "Diese Verbindung zwischen Wissenschaft und Kunst kann zu großen Dingen führen, aber es bedarf der Zusammenarbeit in beide Richtungen."

Frühe Wiederholungen von A.I. können, wie auch GANS, Millionen von Datenpunkten aufsaugen, um Muster und sogar Bilder zu sehen, mit denen der Mensch nie alleine kommen könnte. Ihre kreative Vision ist jedoch immer noch durch das begrenzt, was der Mensch diesen Algorithmen als Rohdaten zur Verfügung stellt.

Mit einem ausgeprägten Auge für Ästhetik und Codierfähigkeiten könnten die Künstler der Zukunft, die mit A. I. arbeiten, maschinelles Lernen nutzen, um ein völlig neues Zeitalter der Kreativität zu starten oder ältere Kunststile mit Leben zu füllen. Es wird jedoch eine Menge Daten benötigt, um den Maschinen beizubringen, wie sie den menschlichen Einfallsreichtum besser nachahmen können und das, was der Computer ausspuckt, einen Schritt weiter führt.

$config[ads_kvadrat] not found