Deepfakes sind kein Vergleich für maschinelles Lernen - hier ist der Grund

$config[ads_kvadrat] not found

Deep Fakes: Why seeing isn't believing

Deep Fakes: Why seeing isn't believing

Inhaltsverzeichnis:

Anonim

Eine neue Form der Desinformation wird sich in Online-Communities verbreiten, da die Wahlkampagnen für 2018 heißer werden. Nach dem pseudonymen Online-Konto, das die Technik populär gemacht hat - die möglicherweise ihren Namen gewählt hat, weil der Prozess eine technische Methode namens "Deep Learning" verwendet - werden diese "gefälschten" Videos sehr realistisch.

Bislang haben die Menschen in Pornografie und Satire tief greifende Videos verwendet, um den Anschein zu erwecken, dass berühmte Leute Dinge tun, die sie normalerweise nicht tun würden. Aber es ist fast sicher, dass während der Wahlkampfsaison Deepfakes auftauchen werden, die angeblich Kandidaten darstellen, die Dinge sagen oder Orte besuchen, an denen der echte Kandidat nicht teilnehmen würde.

Da diese Techniken so neu sind, fällt es den Leuten schwer, den Unterschied zwischen echten Videos und den tiefgezogenen Videos zu erkennen. Meine Arbeit mit meinem Kollegen Ming-Ching Chang und unserem Ph.D. Der Student Yuezun Li hat einen Weg gefunden, echte Videos zuverlässig von Deepfake-Videos zu unterscheiden. Es ist keine dauerhafte Lösung, weil sich die Technologie verbessern wird. Aber es ist ein Anfang und bietet die Hoffnung, dass Computer den Menschen helfen können, die Wahrheit von der Fiktion zu unterscheiden.

Was ist eine "Deepfake"?

Das Erstellen eines Deepfake-Videos gleicht dem Übersetzen zwischen Sprachen. Dienste wie Google Translate verwenden maschinelles Lernen - Computeranalyse von Zehntausenden von Texten in mehreren Sprachen -, um Wortgebrauchsmuster zu erkennen, mit denen sie die Übersetzung erstellen.

Deepfake-Algorithmen arbeiten auf dieselbe Weise: Sie verwenden ein maschinelles Lernsystem, das als Deep Neuronales Netzwerk bezeichnet wird, um die Gesichtsbewegungen einer Person zu untersuchen. Dann synthetisieren sie Bilder des Gesichts einer anderen Person und machen analoge Bewegungen. Auf diese Weise wird effektiv ein Video der Zielperson erstellt, die die Dinge zu tun oder zu sagen scheint, die die Quellperson getan hat.

Um richtig arbeiten zu können, benötigen tiefe neuronale Netze viele Quelleninformationen, z. B. Fotos der Personen, die die Quelle oder das Ziel eines Identitätswechsels sind. Je mehr Bilder zum Trainieren eines Deepfake-Algorithmus verwendet werden, desto realistischer wird der digitale Identitätswechsel.

Erkennen des Blinkens

Es gibt immer noch Mängel in diesem neuen Algorithmus. Einer von ihnen hat damit zu tun, wie die simulierten Gesichter blinken - oder nicht. Gesunde erwachsene Menschen blinken irgendwo zwischen zwei und zehn Sekunden, und ein einzelnes Blinzeln dauert zwischen einem Zehntel und vier Zehntel einer Sekunde. Das ist normal, wenn man in einem Video von einer Person spricht, die spricht. In vielen Deep-Fake-Videos geschieht dies jedoch nicht.

Wenn ein Deepfake-Algorithmus mit Gesichtsbildern einer Person trainiert wird, hängt er von den im Internet verfügbaren Fotos ab, die als Trainingsdaten verwendet werden können. Selbst für Menschen, die häufig fotografiert werden, sind nur wenige Bilder online verfügbar, die Augen sind geschlossen. Solche Fotos sind nicht nur selten, da die Augen der Menschen meistens geöffnet sind. Außerdem veröffentlichen Fotografen normalerweise keine Bilder, bei denen die Augen der Hauptpersonen geschlossen sind.

Ohne das Trainieren von Bildern, in denen Personen blinzeln, sind Deep-Fake-Algorithmen weniger wahrscheinlich Gesichter, die normalerweise blinzeln.Wenn wir die Gesamtrate des Blinzelns berechnen und diese mit der natürlichen Reichweite vergleichen, stellen wir fest, dass Charaktere in Deep-Fake-Videos im Vergleich zu echten Menschen viel seltener blinken. Unsere Forschung verwendet maschinelles Lernen, um das Öffnen und Schließen von Augen in Videos zu untersuchen.

Siehe auch: Hollywood wirft keine asiatisch-amerikanischen Stars, aber A.I. Maschinelles Lernen kann

Dies gibt uns eine Inspiration, um tief gefälschte Videos zu entdecken. Anschließend entwickeln wir eine Methode, um zu erkennen, wann die Person im Video blinkt. Um genauer zu sein, scannt es jeden Frame eines fraglichen Videos, erkennt die darin befindlichen Gesichter und lokalisiert dann automatisch die Augen. Dann verwendet es ein anderes tiefes neuronales Netzwerk, um zu bestimmen, ob das erkannte Auge geöffnet oder geschlossen ist, und zwar anhand des Aussehens, der geometrischen Merkmale und der Bewegung des Auges.

Wir wissen, dass unsere Arbeit einen Fehler in der Art von Daten nutzt, die zum Trainieren von Deepfake-Algorithmen zur Verfügung stehen. Um nicht einem ähnlichen Fehler zum Opfer zu fallen, haben wir unser System an einer großen Bibliothek von Bildern mit offenen und geschlossenen Augen geschult. Diese Methode scheint gut zu funktionieren, und daher haben wir eine Erkennungsrate von über 95 Prozent erreicht.

Dies ist natürlich nicht das letzte Wort zum Erkennen von Deepfakes. Die Technologie verbessert sich rapide, und der Wettbewerb zwischen dem Erzeugen und Erkennen von gefälschten Videos entspricht einem Schachspiel. Insbesondere bei Deep-Fake-Videos kann das Blinken durch Hinzufügen von Gesichtsbildern mit geschlossenen Augen oder durch Verwendung von Videosequenzen für das Training ergänzt werden. Menschen, die die Öffentlichkeit verwirren wollen, werden bessere Videos erstellen können, und wir und andere in der Technologie-Community müssen weiterhin nach Wegen suchen, sie zu entdecken.

Dieser Artikel wurde ursprünglich bei The Conversation von Siwei Lyu veröffentlicht. Lesen Sie hier den Originalartikel.

$config[ads_kvadrat] not found