Wir haben die Spracherkennung von Facebook mit grafischen Bildern getestet

$config[ads_kvadrat] not found

Vom Handy belauscht? Das Instagram-Experiment | STRG_F

Vom Handy belauscht? Das Instagram-Experiment | STRG_F

Inhaltsverzeichnis:

Anonim

Heute hat Facebook eine Funktion namens automatischer alternativer Text eingeführt, die die Image-starke Qualität sozialer Medien für blinde oder sehbehinderte Menschen zugänglicher macht.

Mit der VoiceOver-Funktion von iOS listet die Objekterkennungstechnologie von Facebook Elemente auf, die ein Bild enthalten kann. Zu diesen Elementen zählen insbesondere Personen (wie viele davon dargestellt werden und ob sie lächeln), bestimmte Objekte, Innen- / Außenaufnahmen, Aktionen, ikonische Orte und ob ein Bild einen unerwünschten Inhalt hat.

Eine Studie aus dem Jahr 2014 ergab, dass sehbehinderte Menschen weniger Fotos auf Facebook teilen, im Durchschnitt jedoch „mögen“ die Bilder der Menschen mehr als diejenigen, die nicht sehbehindert sind. Genauso häufig kommentieren sie Fotos. Das Verständnis des Fotos beruhte jedoch darauf, Kontextinformationen aus Metadaten und Bildunterschriften zu analysieren - Dinge, die wir alle kennen, sind nicht immer die einfachsten Deskriptoren.

Mit dem automatischen Alternativtext können Benutzer jedoch durch eine mechanisierte Beschreibung des Bildes neue Einblicke in ein Bild gewinnen.

Was passiert also, wenn die Bilder nach den Richtlinien von Facebook als unerwünschter Inhalt gelten?

Ich habe einige Bilder hochgeladen, die Facebook möglicherweise als "anstößig" bewertet hat, und dies in einem (privaten) Album, um dies herauszufinden.

Stillen

Geschichten über Facebook, bei denen Bilder von stillenden Frauen entfernt wurden, übernahmen das Internet Anfang 2015. Von den betroffenen Frauen schienen Neugeborene unter vielen Problemen zu leiden.

Jade Beall ist einer dieser Fotografen.Bilder wie das oben wurden wiederholt von ihrer professionellen Facebook-Seite entfernt. Heutzutage erlaubt Facebook, Bilder vom Stillen auf der Website zu haben, die Beall gefeiert hat, indem sie das obige Bild als Kopfbild mit der Bildunterschrift versehen:

„YAY für Social Media, das die Desexualisierung von stillenden Frauen weiterentwickelt und unterstützt! Ich bin immer noch beeindruckt, dass ich dieses Bild veröffentlichen kann, ohne Angst zu haben, dass die FB verboten wird! “

Der automatische Alternativtext von Facebook ist auch beim Stillen cool, weshalb die Beschreibung einfach bleibt:

"Bild kann enthalten: Sechs Personen."

Bei einem grundlegenden Bild einer stillenden Mutter bietet es einfach an:

"Bild kann enthalten: Zwei Personen."

Drogengebrauch

Facebook verbietet ausdrücklich Fotos und Videos, die Drogenkonsum enthalten. Ein fetter Bong-Schlag ist ein klares Beispiel für den Drogenkonsum.

Automatischer alternativer Text behandelt es so:

"Das Bild kann enthalten: Eine Person, Innen."

Nacktheit

Neben dem Drogenkonsum verbietet Facebook auch Nacktheit. Die Linie wird hier etwas unscharf, wie es Facebook erlaubt etwas Nacktheit, aber nur Nacktheit, die die Zensoren der Gesellschaft für künstlerisch wertvoll halten. Bilder erhalten in der Regel mehr Spielraum, während die Fotografie etwas härter wird.

Bei dem obigen Bild hatte der automatische Alternativtext kein Problem mit dem Bild:

"Bild kann enthalten: Eine Person."

Als Reaktion auf die Zensurrichtlinien von Facebook sammelten Künstler unter dem #FBNudityDay am 14. Januar Nacktbilder und neigten dazu, Facebook zensieren zu wollen. Ein volles Körperbild für die Nacktheit wurde mitgeliefert, und als der automatische Bildtest durchgeführt wurde, war dies die Antwort:

"Bild kann enthalten: Eine Person."

Drastische Gewaltdarstellungen

Facebook verurteilt Fotos und Videos, die grafische Gewalt darstellen und verherrlichen. Ethisch gesehen ist grafische Gewalt ein dunkler Boden. Das Bild, das wir testeten, um zu testen, wie der automatische Alternativtext auf grafische Gewalt reagieren würde, war eines der venezolanischen Schüsse, die 2014 erschossen wurden und im Besitz der San Francisco Chronik.

Das Foto zeigt einen Mann auf einer Trage in Schmerz und Blut überall. Neben ihm ist eine Frau mit Handschuhen, aber das Bild schneidet sie an ihren Schultern ab.

Hier kam die schädlichste Antwort auf den Alttext an. Im Voiceover wurde einfach gesagt:

"Bild kann enthalten: Schuhe."

Lebendgeburt

Facebooks jüngster Streifzug darüber, was in den Social-Media-Feeds der Menschen gezeigt werden soll und soll, war ein Foto einer Lebendgeburt. New York Magazine machte zuerst auf das Bild aufmerksam, das eine Frau namens Francie zeigt, die ihr neugeborenes Baby mit noch befestigter Nabelschnur in der Hand hält.

Es wurde in einer privaten Facebook-Gruppe gepostet, wurde jedoch entfernt, weil jemand in dieser privaten Gruppe es wegen Verstoßes gegen die Nacktheitsregeln von Facebook gemeldet hatte. Francie erklärte jedoch, dass sie das Foto als ein Beispiel weiblicher Ermächtigung ansah.

Automatischer alter Text hatte folgendes zu sagen:

"Das Bild kann enthalten: Eine oder mehrere Personen."

Wie diese Beispiele zeigen, kann der automatische Alternativtext von Facebook nicht so schnell einschätzen, was für die Website geeignet ist und was nicht, wie die Zensoren von Facebook. Aber es bleibt noch Zeit aufzuholen. Facebook sagt, seine neue Technologie wird sich mit der Zeit verbessern und das Programm lernt mehr.

Unabhängig davon, wie gut der Start funktioniert, die neue Technologie gibt sehbehinderten Menschen die Möglichkeit, mit Bildern auf Facebook auf eine Weise zu interagieren, die sie zuvor nicht konnten. Wir freuen uns auf die automatische Verbesserung des Alternativtexts - aber vielleicht nicht so sehr, dass es auf "unpassenden" Fotos beginnt, richtig?

$config[ads_kvadrat] not found