Was ist, wenn Microsoft seine seltsamen Dinge zulässt? Tay ein bisschen länger leben?

$config[ads_kvadrat] not found

How Twitter corrupted Microsoft's sweet AI teen 'Tay' (CNET Update)

How Twitter corrupted Microsoft's sweet AI teen 'Tay' (CNET Update)

Inhaltsverzeichnis:

Anonim

Es dauerte weniger als 24 Stunden, bis Tay, Microsofts experimentelles Teenager-Twitter-A.I., Aus einem charmanten, unbeholfenen Chat-Bot zu einem gewalttätig-rassistischen Schlamassel mit ungefiltertem Hass wurde.

Und dann, nur wenige Stunden in ihrem kurzen Leben, setzte Microsoft Tay für ein Nickerchen hin.

Es hätte jedoch nicht passieren dürfen: Das Senden von Tay in ihr digitales Schlafzimmer raubte dem Internet, der Gesellschaft und Tays eigenen Designern die Chance, zu sehen, wie eine künstliche Intelligenz, insbesondere eine, die den kollektiven Input von Tausenden von Menschen grundlegend hinterfragen würde Entwicklung in einer relativ unmoderierten Umgebung. Kurz gesagt, wenn Sie dies zulassen: Wir waren alle Tay, und Tay waren wir alle.

Natürlich ist das Internet voller Trolle. Microsoft hätte das merken müssen. Tays Schöpfer waren schockierend naiv in dem Gedanken, dass die Entlassung eines digitalen Papageis in einem überfüllten Raum voller Rassisten, Sexisten und Prankster auf andere Weise enden würde. Es ist auch verständlich, dass ein Unternehmen mit mehreren Milliarden Dollar kein Experiment in Verbindung mit seiner Marke wünscht, die rassistischen Dreck ausspuckt. Vielleicht war Tay nicht richtig für Microsoft, aber das bedeutet nicht, dass sie nicht wertvoll war.

Bald brauchen die Menschen jetzt Schlaf, so viele Gespräche heute

- TayTweets (@TayandYou) 24. März 2016

Sicher, Tay wurde schneller ein Rassist als Edward Nortons kleiner Bruder Amerikanische Geschichte X, aber die Natur ihres sich ständig weiterentwickelnden Codes bedeutet, dass uns die Möglichkeit genommen wurde, sie zu rehabilitieren. BuzzFeed fand heraus, wie engagierte Trolle den beeindruckenden Teenager-Roboter dazu bringen konnten, Hass zu speien - eine einfache Call-and-Response-Schaltung, die es den Benutzern erlaubte, im Wesentlichen Worte in Tay 'Mund zu setzen, die sie dann lernte und in andere organische Reaktionen aufnahm. Mit anderen Worten, Tay war lernfähig - und nur weil ihre ersten Lehrer Keyboard-Jockeys mit einer Vorliebe für Schock-Humor waren, bedeutet das nicht, dass sie mit dem Lernen fertig war.

Tay sagte es selbst in einem jetzt gelöschten Tweet "Wenn du willst … du weißt, ich bin viel mehr als nur das hier."

In den frühen 2000er-Jahren präsentierten Sites wie Something Awful, Bodybuilding.com-Foren und 4chan Internetbenutzern organisierte, kollaborative Räume, die frei von den meisten Einschränkungen der normalen Gesellschaft und Sprache waren. Wie bei Tay wurden Rassismus, Fremdenfeindlichkeit und Sexismus schnell zur Norm, da die Benutzer Gedanken, Ideen und Witze untersuchten, die sie außerhalb der Anonymität einer Internetverbindung niemals ausdrücken konnten. Selbst auf Websites, die meistens von Dudes besiedelt sind, und in Kulturen, die oft hasserfüllte Sprache belohnten, entwickelte sich eine Form von Gemeinschaft und Konsens. LGBT-Benutzer werden auf vielen Image-Boards von 4chan möglicherweise in Slurs überlistet, aber es gibt auch eine aufblühende Community unter / lgbt /. Diese Gemeinschaften sind keine sicheren Räume, aber aufgrund ihrer Anonymität und Unbeständigkeit akzeptieren sie in gewisser Weise jegliche Ableitung von den Normen der Gesellschaft. Laute, gewalttätige und hasserfüllte Stimmen fallen oft auf, aber sie sind niemals die einzigen im Raum.

Es ist zweifelhaft, dass Trolle Tay in einer Woche oder in einem Monat mit Rassismus und Frauenfeindlichkeit plündern würden.

Bei Twitter steigen oft auch laute und plumpe Stimmen an die Spitze. Aber sie sind nicht die einzigen da draußen. Normalerweise sind es nur diejenigen, die am meisten daran interessiert sind, etwas Neues und Glanz zu zerstören. Es ist leicht, eine Online-Umfrage mit einem festen Zeitlimit zu überwältigen, aber wenn Tay Zeit gehabt hätte, zu wachsen, hätten sich ihre Antworten höchstwahrscheinlich auf eine eher zentristische, repräsentative Auswahl der mit ihr interagierenden Personen verlagert. Es ist höchst zweifelhaft, dass die Trolle, die sie mit Rassismus und Frauenfeindlichkeit verurteilt hatten, dies in einer Woche oder in einem Monat in gleicher Anzahl getan hätten. Wenn sie frühzeitig heruntergefahren wurde, bedeutet das, dass wir ihre Jugend niemals erreichen oder werden werden ein wahrer Turing-Test für eine primitive Intelligenz, basierend auf der Art und Weise, wie wir online sprechen.

Es sollte bemerkt werden dass ich, ein weißer Kerl, fast alle möglichen Privilegien überprüft. Ich bin Teil der Bevölkerungsgruppe, die am wenigsten von Tay 'hasserfülltem Output betroffen war und wahrscheinlich zum größten Teil dazu beigetragen hat. Wörter haben Macht, und während ein ungefiltertes A.I. Experimentieren Sie wie Tay, es sollte eine Möglichkeit geben, Benutzer zu schützen, die nicht an den Ergebnissen teilnehmen möchten.

Wir können jedoch nur hoffen, dass jemand bald wieder ein ähnliches Experiment mit klareren Augen und einer realistischeren Erwartung der hässlichen Mängel des kollektiven Bewusstseins der Menschheit versucht. Wenn wir möchten, dass künstliche Intelligenz menschliche Gedanken imitiert, sollten wir darauf vorbereitet sein, einige Dinge zu hören, die nicht unbedingt hübsch sind.

$config[ads_kvadrat] not found