Die 10 neuesten Militärroboter der Welt
Baynazar Mohammad Nazar war auf dem Operationstisch bewusstlos, als die Decke über ihm zusammenbrach. Der Vater von vier Kindern hatte sich am Vortag im Krankenhaus aufgehalten, nachdem er sich ins Bein geschossen hatte, und musste sich innerhalb von zwei Tagen seiner zweiten Operation unterziehen, um seine Verletzung zu beheben. Als die Amerikaner anfingen, das Gebäude zu zerstören, hatten die an ihm arbeitenden Ärzte keine andere Wahl, als auf eigene Faust so schnell wie möglich zu fliehen.
Andrew Quilty bei Außenpolitik erzählt die Geschichte von Baynazars Leben und Tod in einem Artikel, der eine Fotografie seines mit Trümmern bedeckten Körpers auf dem Operationstisch enthält. Baynazar war eine von 31 Personen, die die Vereinigten Staaten getötet hatten, als sie am 2. Oktober in Kunduz, Afghanistan, das von Ärzte ohne Grenzen (auch Ärzte ohne Grenzen) betriebene Krankenhaus getroffen hatte.
Nach hochrangigen Streiks mit hohen zivilen Opfern fragen Politiker und Experten, wie so etwas passieren könnte und was getan werden kann, um sicherzustellen, dass dies nicht noch einmal geschieht. Unter den Befürwortern autonomer Waffensysteme, die manchmal als "Killerroboter" bezeichnet werden, ist ein populäres Argument, dass menschliches Versagen (oder Bosheit) für einen Großteil der in Kriegszeiten begangenen Verbrechen verantwortlich ist. Es sei theoretisch möglich, dass Roboter präziser zielen könnten und weniger fehleranfällig seien als Menschen.
"Tatsächlich kann sich das menschliche Urteilsvermögen in der Hitze der Schlacht als weniger zuverlässig erweisen als technische Indikatoren", schreibt Michael N. Schmitt, Professor am US Naval War College. "Diejenigen, die anders glauben, haben den Nebel des Krieges nicht erlebt."
US-Luftangriff auf MSF-Krankenhaus in Afghanistan "in erster Linie durch menschliches Versagen verursacht" http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206
- Telegraph News (@TelegraphNews) 25. November 2015
Die Frage ist also: Können Sie die Werkzeuge des Krieges so programmieren, dass das menschliche Verhalten eingeschränkt wird, um Streiks wie die Bombenanschläge im Krankenhaus von Kunduz unmöglich oder zumindest unwahrscheinlicher zu machen?
Wahrscheinlich nicht - zumindest für die nahe Zukunft. Einige Programmierer für künstliche Intelligenz haben jedoch einen Roboter entwickelt, der den Menschen ablehnen kann. Der Versuchsaufbau ist einfach: Der Mensch fordert einen Roboter auf, von einem Tisch nach vorne zu gehen, was der Roboter zunächst ablehnt. Wenn der Mensch dem Roboter sagt, dass er ihn fangen wird, akzeptiert der Roboter die Bestellung.
Von einem halbautonomen Kampfhubschrauber, der seiner menschlichen Besatzung mitteilt, er könne keinen Luftangriff auf ein Krankenhaus durchführen, da dies ein Kriegsverbrechen wäre, ist dies ein weiter Weg, aber die zugrunde liegende Prämisse ist weitgehend gleich. Wie andere darauf hingewiesen haben, ist in Science-Fiction die Besorgnis der Menschen über diese Art von Entwicklung bei Robotern üblich - denken Sie, dass HAL-9000 sagt: "Ich kann das nicht, Dave", wenn der Mensch außerhalb der Raumstation eingeschlossen wird 2001: Eine Weltraum-Odyssee.
Was die Besonderheiten des Kunduz-Streiks angeht, sind viele Fakten rund um den Angriff umstritten. Ärzte ohne Grenzen hat eine unabhängige Untersuchung gefordert, die die Regierung der Vereinigten Staaten ablehnt, und verspricht, ihre eigenen Überprüfungen durchzuführen.
Einige Teile einer US-amerikanischen Untersuchung wurden Anfang dieses Monats veröffentlicht und stellten menschliche und mechanische Fehler für den Streik fest. Zu Beginn dieser Woche meldeten sich zwei Bedienstete, um den Feststellungen des Berichts zu widersprechen. Sie sagen, der Streik sei kein Fehler. In ihrer Buchhaltung zuerst von gemeldet AP Die US-Sondereinheiten riefen den Streik ein, weil das Krankenhaus zwar als Taliban-Kontroll- und Kontrollzentrum diente.
In der offiziellen Version führte ein mechanischer Ausfall dazu, dass die Crew des AC-130 zunächst ein leeres Feld erhielt. Die Besatzung suchte dann in der Umgebung nach einem Gebäude, das zu der ihnen gegebenen Beschreibung passt, und eröffnete das Feuer. Als ihre Instrumente neu kalibriert wurden, gaben sie der Besatzung die korrekten Koordinaten für ihr Ziel, aber die Besatzung schoss trotzdem auf das Krankenhaus.
Wenn dieser Bericht wahr ist - der Computer war letztendlich genau und die Menschen ignorierten ihn -, gibt er den Befürwortern größerer Autonomie in Waffensystemen Glauben. Der US-amerikanische Krieg gegen den Terrorismus ist jedoch mit vielen Beispielen übersät, wie das Militär oder die CIA das "richtige" Ziel getroffen haben und trotzdem eine große Anzahl von Zivilisten getötet haben. Automatisierung löst keine schlechten Intelligenz und Versuche, eine Annäherung an die Moral zu programmieren, werden Kriegsverbrechen nicht beenden.
In den Vereinigten Staaten besteht eine starke Versuchung, den Krieg zu sterilisieren, und die Automatisierung, indem Amerikaner aus dem Schaden geraten, ist dazu bestimmt, die Definition des Krieges zu ändern. Obamas Präferenz für das Töten von Drohnen und die damit einhergehende Zusicherung, dass Drohnen die präzisesten Waffen sind, die je geschaffen wurden, ist die klarste Manifestation dieser Ziele. "Es waren präzise Präzisionsangriffe gegen Al Qaida und ihre Mitgliedsorganisationen", sagte Obama in einem Google-Hangout von 2012.
Eine Regierungsstudie aus dem Jahr 2013 widerspricht jedoch diesen Behauptungen. Es wurde festgestellt, dass Drohnen in Afghanistan zehnmal so viele zivile Todesopfer forderten wie unbemannte Fahrzeuge. "Drohnen sind nicht magisch besser darin, Zivilisten als Kampfjets zu meiden", sagte Sarah Holewinski, Mitautorin der Studie Der Wächter. "Als Piloten, die Flugjets erhielten, klare Anweisungen und Schulungen zum zivilen Schutz erhielten, konnten sie die zivilen Unfallraten senken."
Das Militär gibt Millionen für die Entwicklung von Mensch-Roboter-Teamingsystemen aus, die die Grenzen zwischen Missionen, die von bemannten oder unbemannten Waffen ausgeführt werden, weiter verwischen. "Was wir beim Kampf gegen Mensch-Maschine-Kampf tun wollen, ist, es auf die nächste Stufe zu bringen und Dinge wie Schwarmtaktiken zu betrachten", sagte der stellvertretende Verteidigungsminister Bob Work im offiziellen DoD-Wissenschaftsblog. "Kann eine F-35 mit vier unbemannten Flügelmännern in die Schlacht ziehen?"
Werden diese Flügelmänner Nein sagen, wenn der menschliche Pilot ihnen eine Anweisung erteilt, die dem Abgehen vom Tisch entspricht? Wie wäre es mit einem Befehl, ein Krankenhaus oder eine Schule zu zerstören? In jedem Fall gilt der Nebel des Krieges. Wenn wir uns entscheiden, Maschinen außer Kraft zu setzen, wird der Ausdruck „menschliches Versagen“ einer der erschreckenderen Ausdrücke in Konflikten der Zukunft sein.
Waffengeschäfte werden wegen Protesten nicht einmal intelligente Waffen anbieten
Vielleicht dachtest du, Jon Stewart wäre zu zynisch, als der müde Daily Show-Moderator gestern Abend mit der Vorhersage eröffnet wurde, dass wir nach einem weiteren Massenshooting "keine Scheiße machen" werden. In diesem Fall möchte ich Ihnen den selbsternannten "Second Amendment Guy" und den Waffenhändler Andy Raymond vorstellen und warum er sagt, dass er ...
Forscher enthüllen geheime Befehle, um Ihre Siri zu entführen
Forscher haben enthüllt, wie geheime Befehle Sprachsteuerungs-Tools wie Siri und Google Now verwenden könnten, um Ihr Smartphone ohne Ihr Wissen zu übernehmen. "Während die allgegenwärtige Spracherkennung viele Vorteile mit sich bringt", schreiben die Forscher in einem Papier, das im August vorgestellt werden soll, "sind die Auswirkungen auf die Sicherheit ...
Marvel wird es ablehnen, aber "Bürgerkrieg" unterstützt Iron Man und Regierungsaufsicht
Der folgende Artikel enthält Spoiler für „Captain America: Civil War“. Nach mehr als einem Jahr unbeschwerter Kämpfe zwischen Marvels riesiger Fangemeinde wissen die Kinobesucher endlich, wer den mit Spannung erwarteten Bürgerkrieg gewonnen hat, und ... es war der Bösewicht. Dank der Machenschaften von Zemo (Daniel Brühl), was einst der Aven ...