U2-Musikvideos werden jetzt in der Studie zu künstlicher Intelligenz verwendet

U2 - Song For Someone

U2 - Song For Someone
Anonim

Künstliche Intelligenz könnte eines Tages die von uns betrachteten Musikvideos scannen, um anhand der Emotionen des Interpreten vorausschauende Optionen für die Musikermittlung zu finden. Was bedeutet, dass A.I. wird bald in der Lage sein, Bonos trauriges Gesicht zu erkennen und Ihnen mehr Mopey Bono oder vielleicht etwas mehr Smiley zu servieren.

Die Technologie dafür ist noch nicht vorhanden, aber Diane Rasmussen Pennington, Dozentin an der University of Strathclyde in Glasgow, Schottland, recherchierte 150 Videos von U2-Fans und nahm nicht-textbasierte emotionale Hinweise auf, um die Gesichtszüge zu demonstrieren und Objekte können für zukünftige Softwareprogramme am nützlichsten sein.

"U2 war lange Zeit meine Lieblingsband", erzählt Pennington Inverse und fügte hinzu, dass es eine Reihe weiterer Gründe gab, die Videos der Band als Testgelände zu nutzen. „Objektiv gesehen, beim Lesen und nicht nur bei meiner Wahrnehmung als Fan, empfinden die Leute, die U2 mögen, die Musik als eine sehr emotionale Erfahrung, wenn sie sie hören, vielleicht eher als andere Bands. … Für die Fans der Band gibt es etwas sehr spirituelles."

Pennington konzentrierte sich auf ein einziges U2-Stück, „Song For Someone“, aus dem umstrittenen 2014er Album der Band Lieder der Unschuld, die in einer Tonne iTunes von Leuten sitzt, egal ob sie es wollte oder nicht. Die Videos enthielten Fan-Diashows, die von der Musik der Band unterstützt wurden, Tutorials zur Ausführung des Songs und natürlich Covers. Sie kategorisierte die Gesichtsausdrücke der Interpreten sowie Fan-Fanartikel wie T-Shirts, Konzertposter und Bono-inspirierte Sonnenbrillen.

Pennington sagt die A.I. Software erkennt immer besser unterschiedliche Texturen und kreisförmige Objekte in Fotos und Videos, hofft jedoch, dass ihre Forschung ein kleiner Schritt für die Identifizierung der emotionalen Bedeutung dieser Objekte sein kann.

Facebook hat signalisiert, dass es A.I. das ist „aufmerksamer als Menschen“, um Inhalte und Anzeigen basierend auf visuellen Hinweisen aus Videos und Fotos, die auf der Plattform geteilt werden, besser zu schalten. Twitter testet bereits seine ähnliche Cortex-Technologie, mit der Objekte in Live-Periscope-Feeds intelligent identifiziert werden können, um Live-Video-Streaming-Events besser zu empfehlen.

Die gleichen Konzepte könnten sicherlich für die ständigen Musikströmungskriege gelten. Unter den großen Musik-Streaming-Plattformen ist es ein Wettlauf um die Entwicklung der besten Software zur Vorhersageerkennung. Apple Music verwendet menschliche Kuratoren, um Wiedergabelisten zu erstellen, um die mangelnde Konsistenz der von seinen Mitbewerbern Spotify und Google verwendeten algorithmischen Programme auszugleichen.

Letztendlich prognostizieren Technologen wie der Vorstandsvorsitzende von Alphabet und Google-Gründer Eric Schmidt, dass die Konsumenten der Zukunft auf Computersoftware angewiesen sein werden, um ihnen Optionen für die Musikentdeckung zu bieten.

Spotify und Apple Music neigen zu mutigen Behauptungen über die Anzahl ihrer monatlichen Abonnenten. Derzeit ist der König jedoch YouTube, mit mehr als einer Milliarde Nutzern pro Monat, die die Musik-Streaming-Landschaft dominieren.

YouTube Red und die YouTube-Musik-App eignen sich gut, um neue und andere Optionen für die Musikerkennung zu bieten, was jedoch nachteilig ist, da sie nicht wirklich erkennen können, was auf dem Bildschirm abgespielt wird. Sicher, Google weiß, für welche Videos Sie die Daumen hochgesteckt haben, 50 Mal bei Wiederholung angeschaut, in sozialen Medien geteilt und kommentiert wurden, aber es verfügt nicht über die visuellen Hinweise, warum dies der Fall ist.

Das Publikum könnte auch Suchergebnisse generieren, die auf dem emotionalen Gefühl der Lieder und ihrer Interpreten basieren. Zum Beispiel könnte eine Suche nach „Bad Day“ heute die Single von Daniel Powter anzeigen lassen, aber in der Zukunft könnten den Benutzern neben Musikern, die auf die Musik zugeschnitten sind, Musikvideos gezeigt werden, die einfach die Emotionen eines schlechten Tages und nicht speziell dieses Lied auslösen. Es ist auch erwähnenswert, dass die Suchergebnisse von YouTube derzeit hauptsächlich auf Ansichten basieren, während Likes, Shares und Kommentare direkter Einfluss auf die vorgeschlagenen Interpreten auf der Desktopseite oder die Auswahl der Wiedergabelisten in der YouTube-Musik-App haben.

Penningtons Forschung könnte ein Schritt sein, um nicht nur zu identifizieren, was auf unseren Bildschirmen zu sehen ist, sondern auch, warum Bands wie U2 eine solche emotionale Reaktion hervorrufen.