In Skywars Fallen bauen
Als künstliche Intelligenzsysteme anfingen, Menschen bei Dingen zu schlagen, haben wir nicht zu viel darüber nachgedacht. Klar, es macht Sinn, dass ein Computer in der Lage ist, die Wahrscheinlichkeiten für ein hochmathematisches Spiel wie Schach zu verringern und genug Informationen zu speichern, um bei Jeopardy gewinnen zu können. Aber wenn Google's AlphaGo A.I. Bei Lee, dem uralten chinesischen Spiel der Kreativität und Strategie, den Weltmeister Lee Se-Dol besiegt, begannen wir uns etwas zu sorgen. Nun sagt die University of Cincinnati, ihr ALPHA-System, ein A.I. Kampfpilot, schlägt in einem simulierten Luftkampf konsequent einen der besten Kampfpiloten der Welt.
Flugsimulatoren und Luftkampfspiele haben lange versucht, den Spielern realistische A.I. Gegner, aber sie wurden selten in hyperrealistischen Simulationen der Realität gehalten. Aber der neue A.I. Psibernetix, Inc., ein kürzlich gegründetes Unternehmen, das von einer Gruppe von Alumni und Dozenten der University of Cincinnati College of Engineering und Angewandte Wissenschaften geleitet wird, hat in der Lage, wiederholt eines der Top-Geschütze der Luftwaffe in einem simulierten Kampf abzuschießen.
ALPHA hat sich gegen den pensionierten US-Luftwaffenoberst Gene Lee, einen Luftkampflehrer und Luftkampfmanager, gewandt. Colonel Lee, der buchstäblich zu Top Gun (oder der Version der Air Force, der Fighter Weapons School) ging, verbrachte seine gesamte Karriere in den Streitkräften und konzentrierte sich auf das Fliegen und Kommandieren von amerikanischen Kampfjets. Er ist ein Ass und er bekommt seinen Arsch auf ihn gegeben.
Laut der Zeitschrift der Universität ist es nicht einmal nah. Lee trat im vergangenen Oktober mehrfach gegen ALPHA an und konnte keinen einzigen Treffer gegen ALPHA erzielen, der ihn bei jeder simulierten Mission aus der Luft schoss. Die Universität berichtet, dass ALPHA auch andere Experten besiegt hat, selbst wenn sie bewusst Handicaps erhalten. Die Forscher schickten einen hochgebildeten Ace-Kampfpilot gegen einen Computer, lähmten das virtuelle Flugzeug des Computers (das Drehen, die Geschwindigkeit, Raketen und Sensoren behinderte ihn), und der Computer brachte immer noch die Menschen zum Opfer.
"Ich war überrascht, wie bewusst und reaktiv es war", sagte Oberst Lee UC Magazine. „Es schien mir meine Absichten bewusst zu sein und reagierte sofort auf meine Änderungen im Flug und meine Raketenbereitstellung. Es wusste, wie man den Schuss besiegte, den ich machte. Bei Bedarf bewegte es sich sofort zwischen defensiven und offensiven Aktionen. “
Colonel Lee beschrieb die Erfahrung als grundlegend anders als das Fliegen in anderen Simulatoren gegen verschiedene A.I.s. „Bis jetzt ein A.I. Der Gegner konnte einfach nicht mit dem echten Druck und dem Tempo kampfähnlicher Szenarien mithalten “, sagte er.
Mit anderen Worten, dies ist kein Bohrer. Wir dachten alle für 2005 Heimlichkeit war ein dummer, unrealistischer Actionfilm, der eine Verschwendung von Jessica Biel und Jaime Foxx 'Talenten war, aber das war es nicht. Es war anscheinend eine Vorhersage über eine Zukunft, in der unser Flugzeug unsere besten Piloten mit Leichtigkeit ausweichen kann.
Alles das sagte der Kämpfer-A.I. Es ist nicht wahrscheinlich, dass er in absehbarer Zeit Schurken betreten wird. Zum einen existiert es immer noch ausschließlich in der Simulationsumgebung. DARPAs Integration von A.I. Drohnenverhalten bedeutet, dass das Potenzial von ALPHA als autonomer Flügelmann sehr real ist. Die Reaktionszeit der A.I. ist exponentiell schneller als die eines Menschen und sie ist in der Lage, taktische Pläne und Reaktionen auf Stimuli zu koordinieren, selbst in der Welt des Luftkampfs mit einer Geschwindigkeit von 1500 Meilen pro Stunde. Das Ganze läuft von einem Computer nicht besser als von einem günstigen Laptop.
Das Geheimnis, Psibernetix Präsident und CEO Nick Ernest, sagte der UC Magazine ist etwas, das "Genetic Fuzzy Tree" Computing genannt wird. Im Wesentlichen nimmt das seltsam benannte GFT-System Berechnungen vor, die zuvor einen Supercomputer benötigt hätten, und unterteilt sie in kleinere "Unterentscheidungen", die weniger Variablen erfordern.
"Die einfachste Möglichkeit, das Genetic Fuzzy Tree-System zu beschreiben, besteht darin, dass Menschen eher auf Probleme eingehen", sagt Ernest. Anstatt jede winzige Variable wie ein Supercomputer zu zerkleinern, entscheidet sich das GFT-System dafür, das relevanteste Problem zu prüfen und nur dafür zu suchen, die anderen Variablen herauszuwerfen, um in einer sich verändernden Umgebung schnellere Entscheidungen treffen zu können.
UC-Luftfahrtprofessor Kelly Cohen sagt, dass das ALPHA-System, da es ständig an zukünftigen Versionen lernt und sich an diese anpasst, das gleichwertige Gegenstück zu AlphaGo oder einem anderen Supercomputer sein wird, der besser ist als der Mensch.
"In Bezug auf die Nachahmung menschlicher Überlegungen halte ich es für unbemannte Luftfahrzeuge, was das IBM / Deep Blue vs. Kasparov schach", sagte Cohen. So wie es aussieht, könnte es eine unglaubliche Bereicherung für das Militär sein - aber wenn es schief geht, könnten uns sogar Maverick und Kenny Loggins nicht retten.
Weinlese-Video zeigt Mann, der auf Frau schießt, um kugelsicheres Glas heraus zu prüfen
Nachdem das Sicherheitsglas 1909 erstmals patentiert wurde, scheint der Mensch nicht genug zu zeigen, wie sicher die Erfindung ist - indem er jemanden dahintersteckt. In diesem Vintage-Video, das auf Reddit viral gemacht wurde, testet ein Ehemann 1931 kugelsicheres Glas mit seiner Frau hinter der Scheibe und schießt bis zu sieben Schüsse.
Größtes Nerf-Geschütz der Welt schießt "alles, was Sie im Fass hinunterstoßen"
Eine Gruppe von Ingenieuren hat diese Woche das Internet im Sturm erobert, als sie die größte Nerf-Pistole der Welt, eine lächerliche Nachbildung der beliebten Nerf Maverick-Pistole, auf den Markt brachten. Der massive Maverick wurde von Mark Rober, einem ehemaligen NASA-Wissenschaftler, der im Jet Propulsion Laboratory am Curiosity Rover-Pro ...
Das Weiße Haus veröffentlichte einen Bericht über künstliche Intelligenz, und es heißt A.I. Mediziner sind wahrscheinlicher als Killerroboter
In einem neuen Bericht sagte das Weiße Haus, dass das Militär eher künstliche Intelligenz benutzt, um verletzten Soldaten zu helfen, als Menschen zu töten.