Das maschinelle Lernen mit Waffen gegen ISIS wird militärische Befehlsketten verwirren

$config[ads_kvadrat] not found

ISIS: Peschmerga Soldaten feuern 'Milan' Rakete auf ISIS Kämpfer

ISIS: Peschmerga Soldaten feuern 'Milan' Rakete auf ISIS Kämpfer
Anonim

Jeder im Internet hatte eine tolle Zeit mit Tay, Microsofts Twitter-Roboter, der innerhalb weniger Stunden zum rassistischen Holocaust-Leugner wurde (kam dann zurück und tat es wieder). Das Unternehmen hatte eine Public-Relations-Klappe geschaffen - mehr Vorfälle als eine Katastrophe - und der Öffentlichkeit eine Lektion über die Vor- und Nachteile des maschinellen Lernens erteilt: Automatisierung kann Muster mit faszinierender Wirkung in der Geschwindigkeit nutzen, aber die Ergebnisse sind schwer vorhersagbar.

Das Militär ist, wie so oft, ein Vorreiter der Automatisierungstechnik. Es führt zu einer Zeit die Ladung zum maschinellen Lernen an und versucht auch verzweifelt, mitzuhalten. Ein Schwerpunkt des Pentagon liegt auf autonomen Robotern und der Art und Weise, wie sie mit Menschen zusammenarbeiten werden - beispielsweise mit einem Roboter-Flügelmann im R2D2-Stil. In dieser Woche hat der stellvertretende Verteidigungsminister Robert Work eine weitere Aufgabe für A.I skizziert: Open-Source-Datenverarbeitung.

"Wir sind absolut sicher, dass der Einsatz tief lernender Maschinen uns ein besseres Verständnis von ISIL als Netzwerk und ein besseres Verständnis darüber ermöglichen wird, wie wir es gezielt anvisieren und zu seiner Niederlage führen können", sagte Secretary Work DoD-Website Demnach berichtete Work, der auf einer Veranstaltung der Vereinten Nationen sprach Washington Post, während er eine Epiphanie sah, während er eine Silicon Valley-Tech-Firma vorführte, "eine Maschine, die Daten von Twitter, Instagram und vielen anderen öffentlichen Quellen aufnahm, um den Abschuss der Malaysia Airlines Flight 17 vom Juli 2014 in Echtzeit zu zeigen."

Private Unternehmen und Strafverfolgungsbehörden haben seit langem versucht, „Big Data“ zu verstehen. Aber das Militär hat einen Vorteil: Ressourcen. Sie haben auch Zugang zu klassifiziertem Material.

Die US-Regierung scheint darauf zu wetten, dass Softwarealgorithmen die riesige Menge an Daten dort draußen sortieren können, um ISIS-Ziele zu identifizieren, die sich ihnen sonst entzogen hätten, und Plots erkennen und unterbrechen, bevor die Planer sie ausführen können. Die Regierung versucht bereits, soziale Medien zu untersuchen, um den Umfang der Online-Proteste vorherzusagen. Es steht außer Frage, dass maschinelles Lernen den Intelligence-Analysten eine wachsende Macht verleiht, um die Fülle der verfügbaren Informationen in der Welt zu verstehen. Wenn diese Intelligenz jedoch die Grundlage für einen tödlichen Schlag darstellt, werden die ethischen Fragen komplexer, selbst wenn sie unkompliziert erscheinen.

Obwohl Work schnell feststellte, dass das Pentagon "keine tödliche Autorität an eine Maschine delegieren würde", bleibt dies das Endspiel. In der Zwischenzeit wird der Mensch in der Fachsprache "in der Schleife" bleiben. Jeder, der ein iPhone für einen Wetterbericht angeschaut hat, wenn er neben einem Fenster steht, weiß, dass die Beziehungen zu unseren Geräten und Software nicht einfach sind. Wir sind problematisch leichtgläubig und können leicht von Problemen mit der Benutzeroberfläche abgelenkt werden.

Die „Neigung zur Automatisierung“, die Tendenz der Menschen, sich auf Maschinen zu beschränken, birgt eine klare und zunehmend gegenwärtige Gefahr. Das Go-To-Beispiel zur Veranschaulichung dieses Phänomens ist, wenn Ihr Telefon Sie auffordert, eine Reiseroute zu wählen, von der Sie wissen, dass sie falsch ist, aber Sie tun es trotzdem, vorausgesetzt, das Telefon muss etwas wissen, das Sie nicht kennen. Dies ist ein häufiges Problem in nichtmilitärischen Kontexten. Was auch das Pentagon anscheinend näher rückt, sind Bedrohungsberichte aus künstlicher Intelligenz. Wir wissen nichts über die potenzielle Wirksamkeit dieses Programms, außer dass es für Menschen schwer zu implementieren ist.

In einer Studie aus dem Jahr 2001, die sich mit Studenten- und Berufspiloten und Befangenheiten zur Automatisierung befasste, stellten die Forscher fest, dass „in Szenarien, in denen korrekte Informationen zur Überprüfung und Erkennung von Automatisierungsanomalien verfügbar waren, Fehlerquoten von etwa 55% über beide Bevölkerungsgruppen hinweg dokumentiert wurden.“ Die Studie ergab ebenfalls das Hinzufügen eines zusätzlichen menschlichen Teamkollegen minderte das Problem nicht.

In ähnlicher Weise stellte eine MIT-Studie aus dem letzten Jahr etwas beunruhigenderweise fest, dass Computer- und Videospielspieler eine „höhere Neigung zur Automatisierung von übermäßigem Vertrauen“ hatten. Dies könnte bedeuten, dass je mehr Zeit wir auf unsere Bildschirme starren, desto mehr vertrauen wir dem, was wir sehen. Das Problem liegt nicht bei den von uns verwendeten Systemen, sondern bei der Art und Weise, wie wir sie verwenden. Der Fehler liegt nicht in unseren Sternen, sondern in uns selbst.

Big Data bleibt vielversprechend. Maschinelles Lernen bleibt vielversprechend. Wenn Maschinen jedoch Menschen beraten, sind die Ergebnisse voraussichtlich unvorhersehbar. Bedeutet Tays Verwandlung in einen Neonazi-Frauenfeind, dass Twitter Twitter und Frauen hasst? Es ist schwer zu wissen, aber ziemlich unwahrscheinlich. Wenn wir nicht verstehen, wie Inputs zu Outputs werden, haben wir Schwierigkeiten, rational mit den Ergebnissen umzugehen. Das bringt das Pentagon in eine interessante Position. Werden die Leute, die die maschinelle Lernsoftware des Militärs programmieren, Luftangriffe ordnen? So funktioniert die Befehlskette nicht, aber die Befehlsketten verwickeln sich, wenn die Technologie involviert ist.

$config[ads_kvadrat] not found