Der Stereotyping-Roboter von Georgia Tech ist die Zukunft der KI, nicht Rassismus

$config[ads_kvadrat] not found

KI: Rassistische Roboter & Überwachung wie in China?

KI: Rassistische Roboter & Überwachung wie in China?
Anonim

Für Ohren, die durch Specials nach der Schule und Diversity-Seminare sensibilisiert werden, hört sich das schlecht an, aber wir möchten, dass Roboter schnelle Entscheidungen über das Aussehen treffen. Vorurteile zu überwinden ist gut, aber die Unfähigkeit, Klischees zu machen, verringert die Intelligenz - künstlich und anders. Alan Wagner, ein Roboter der Georgia Tech, ist der Hauptvertreter der Stereotypisierungstechnologie. Er argumentiert, dass diese Art von Logik nicht auf Rasse oder Geschlecht angewendet werden muss, sondern nur auf Situationen und Verhalten.

In einem frühen Test seines Stereotypalgorithmus trainierte Wagner einen naiven Roboter, um daraus Schlussfolgerungen zu ziehen. Der Roboter lernte und wurde einfühlsam, was Wagner dazu brachte, kritisch über die Ethik der Roboterannahmen nachzudenken, insbesondere die vorprogrammierten. Er sprach mit Inverse über seine Arbeit und ihre Auswirkungen.

Führen Sie mich durch, wie das Experiment funktioniert hat.

Der Roboter interagiert mit verschiedenen Arten von Individuen - Feuerwehrmann, EMT oder was auch immer -, aber er hat keine Erfahrung mit einer dieser Kategorien von Individuen. Im Grunde handelt es sich um Erfahrungslernen.

Die Idee bestand darin, zu zeigen, dass der Roboter perzeptuelle Funktionen des Einzelnen verwenden kann, um seine Bedürfnisse hinsichtlich der Werkzeugnutzung vorherzusagen. So wie der Algorithmus funktionierte, würde die Kamera des Roboters verschiedene Aspekte des Individuums wahrnehmen - beispielsweise ihre einheitliche Farbe, ob sie einen Bart hatten, und ihre Haarfarbe.

Es würde ihnen auch Fragen stellen, wie sie aussehen. Natürlich ist es nicht das, was Sie im Feld fragen möchten, aber die Wahrnehmung des Roboters ist im Moment so begrenzt. Wir brauchten einen Weg, um den Prozess des Erlernens einer Person zu booten. Die Person würde das Werkzeug auswählen, und dann würde der Roboter das Werkzeug auswählen, und mit der Zeit würde der Roboter lernen, welches Werkzeug jeder Typ von Person bevorzugt.

Haben Sie erwartet, dass der Roboter erfährt, dass ein Abzeichen Polizeibeamter oder ein starker reflektierender Mantel einen Feuerwehrmann bedeutet?

Wir haben es irgendwie erwartet. Aber es gab auch einige überraschende Dinge.Zum Beispiel hat der Roboter fälschlicherweise erkannt, dass ein Bart mit einem Feuerwehrmann vorhergesagt wird - das war seltsam, aber wenn man sich die Daten ansieht, war es nicht überraschend. Die ersten Personen, die mit ihm in Kontakt kamen, waren Feuerwehrleute, die Bart hatten. Wir argumentieren also für die Wahrnehmung der Vielfalt, eine Idee, die besagt, dass der Roboter die Kategorie besser entwickeln und verstehen kann, wenn er große, verschiedenartige Arten von Individuen in einer Kategorie sehen könnte.

Würden Sie sagen, autonome Roboter sollten trainiert werden, um diese Macken auszubügeln, so dass ein Roboter nicht denkt, wenn diese Person einen Bart hat, ist er ein Feuerwehrmann.

Absolut. Es ist wichtig, dass wir diese Dinge ausbügeln. Es ist wichtig, dass wir über diese Roboter verfügen, die von einer Vielzahl von Individuen aus funktionieren.

Wie könnte dieses Lernen aussehen?

Es würde dem Roboter ermöglichen, sich auf Dinge zu konzentrieren, die Feuerwehrleute besser charakterisieren. Beispielsweise trägt ein Feuerwehrmann möglicherweise nicht einmal eine Jacke. Der Roboter würde dann andere Aspekte der Brandbekämpfung wahrnehmen, vielleicht die Stiefel, vielleicht die Handschuhe, vielleicht Helme. Es würde sagen: „OK, diese Person wirklich ist ein Feuerwehrmann in dieser Umgebung. “

Wenn Sie genug Leute hatten, könnte es sein, dass ein Feuerwehrmann bei einem Feuer oder ein Feuerwehrmann bei einer Halloween-Party erkannt wird. Es sind subtile Wahrnehmungsdetails, wie der Unterschied zwischen der Qualität der Uniformen oder kontextuellen Umgebungen.

Wie erfolgreich war dieser Algorithmus nicht nur bei der Verbindung von Bärten mit Feuerwehrleuten?

Es gab zwei Dinge, die wir unbedingt betrachten wollten: Erstens, was können Sie damit machen? Wenn Roboter Feuerwehrleute erkennen können, hilft das dann irgendwie? Die Zeitung zeigte, dass Sie Ihre Suche eingrenzen konnten. Anstatt Bärte nach Haarfarbe zu suchen, nach Augenfarbe oder was auch immer Sie suchen, können Sie sich auf die Funktionen konzentrieren, die wirklich wichtig waren. Trägt die Person einen Feuerwehrmantel? Das könnte den Prozess beschleunigen.

Eine weitere sehr wichtige Sache, die wir uns angesehen haben, ist, was ist, wenn die vom Roboter vorhergesagte Kategorie falsch ist? Wie wirkt sich das auf Sie aus? Sie können sich vorstellen, dass Such- und Rettungsumgebungen chaotisch sein können: Sie arbeiten möglicherweise in rauchgefüllten Bedingungen, der Roboter kann möglicherweise nicht alles gut wahrnehmen, er kann Fehler aufweisen. Sie könnten sich einen schlimmeren Fall vorstellen, in dem der Roboter glaubt, dass die Person ein Opfer ist, obwohl sie tatsächlich ein Feuerwehrmann ist. Also versucht es, einen Feuerwehrmann zu retten. Das wäre schrecklich. Wir wollten sehen, wo es bricht, wie es bricht, welche Funktionen es am meisten beeinflussen und welche Arten von Fehlern es gibt.

Sie können diesen Ansatz auf unterschiedliche Art und Weise verwenden - wenn er die Person überhaupt nicht sehen kann, aber die Aktionen, die sie ausführen. Wenn ich die Person sehen kann, die eine Axt auswählt, kann ich voraussagen, dass sie einen Helm hat.

Wie nähern Sie sich einem Roboter, der den Kontext beurteilt und eine Vorhersage trifft?

Wir haben versucht, verschiedene Arten von Umgebungen zu betrachten - ein Restaurant, eine Schule und ein Pflegeheim. Wir haben versucht, Features über die Umgebung und die Objekte in der Umgebung zu erfassen, welche Aktionen die Person auswählt und wie die Personen in der Umgebung aussehen, und versuchen dies zu nutzen, um viele soziale Vorhersagen zu treffen. In einer schulischen Umgebung beispielsweise heben die Menschen die Hände, bevor sie sprechen. Wenn ich also die Aktion sehe, mit der die Leute ihre Hand heben, welche Objekte würde ich in der Umgebung erwarten? Erwarte ich eine Tafel zu sehen; erwarte ich einen Schreibtisch? Ich erwarte, Kinder zu sehen.

Die Hoffnung besteht darin, diese Informationen zu verwenden. Wenn der Roboter eine Evakuierungsprozedur durchführt, sieht er, welche Arten von Menschen dort sind und wo sie sich befinden könnten.

Nehmen wir an, es gibt einen Roboter, der zu Ihrer Tür kommt und sagt: „Bitte folgen Sie mir bis zum Ausgang.“ Etwas so scheinbar einfaches wie das ist wirklich sehr komplex. Wenn ein Roboter in einem Mehrfamilienhaus an eine Tür klopft, wissen Sie nicht, mit wem Sie interagieren möchten. Es könnte ein vierjähriges Kind sein, es könnte eine 95-jährige Person sein. Wir lieben es, wenn der Roboter sein interaktives Verhalten auf die Art von Person zielt, die er sieht, um ihn zu retten. Wir nehmen einige dieser kontextuellen Lektionen und versuchen, diese Anwendung zu entwickeln.

Verwenden Sie eine ähnliche Definition von „Stereotyp“ für Roboter und Menschen oder gibt es noch etwas anderes?

Der Begriff Stereotypisierung hat einen negativen Kontext. Die Art und Weise, wie wir sie verwenden, besteht einfach darin, Kategorien von Personen zu entwickeln und kategoriale Informationen zu verwenden, um Merkmale einer Person vorherzusagen. Ich kenne in der Psychologie viel Arbeit mit Gesichtsstereotypen und Geschlechterstereotypen. Wir machen so etwas nicht. Ist der Prozess derselbe? Ich weiß es nicht. Keine Ahnung.

Sind Sie besorgt, dass die Leute falsche Vorstellungen von Ihrer Arbeit haben?

Vor ein paar Jahren entwickelten wir diese Idee von Robotern, die Menschen täuschen könnten. In den Medien gab es ein bisschen die falsche Vorstellung, dass dies dazu führen würde, dass Roboter die Geldbörsen der Menschen stehlen würden.

Ich möchte die Notevakuierungssituation nutzen: Sie möchten nicht immer ganz ehrlich zu einer Person sein, die sich in einer Evakuierung befindet, oder? Wenn Sie zum Beispiel jemand gefragt hat: „Ist meine Familie in Ordnung?“ Es könnte schrecklich sein, wenn der Roboter sagt: „Nein, sie sind alle gestorben. Bitte folgen Sie mir bis zum Ausgang. “Es gibt Situationen, in denen der Roboter tatsächlich kurz unehrlich sein muss. Aber meine Erfahrung war, dass die Leute das Gefühl hatten, wir würden zum Ende der Welt führen.

Wir sind immer an den pro-sozialen Aspekten dieser Mensch-Roboter-Techniken interessiert. Wir versuchen Menschen zu helfen, nicht etwas Schlechtes.

$config[ads_kvadrat] not found