Der große Umbruch - Wie Künstliche Intelligenz unseren Alltag verändert
Wenn es darum geht, existenzielle Bedrohungen durch technologische Innovationen zu identifizieren, ruft die populäre Vorstellungskraft Visionen von Terminator, Die Matrix, und Ich Roboter - Dystopien, die von Robotermächten regiert werden, die Menschen massiv ausbeuten und ausrotten. In diesen spekulativen Futures führt eine Kombination aus Superintelligenz und bösen Absichten dazu, dass Computer die Menschheit vernichten oder versklaven.
Eine neue Studie legt jedoch nahe, dass es sich um die banalen Anwendungen von A.I. das wird in den nächsten Jahren zu gravierenden sozialen Folgen führen. Der Bericht - "Schädliche Nutzung künstlicher Intelligenz" - verfasst von 26 Forschern und Wissenschaftlern von Eliteuniversitäten und technologiebasierten Denkfabriken, skizziert Möglichkeiten, die A.I. Technologien bedrohen unsere physische, digitale und politische Sicherheit. Um ihre Studie in den Fokus zu rücken, untersuchte die Forschungsgruppe innerhalb der nächsten fünf Jahre nur Technologien, die bereits vorhanden sind oder plausibel sind.
Was die Studie gefunden hat: A.I. Systeme werden wahrscheinlich bestehende Bedrohungen erweitern, neue Bedrohungen einführen und deren Charakter verändern. Die These des Berichts lautet, dass der technologische Fortschritt bestimmte Missetaten leichter und lohnenswerter machen wird. Die Forscher behaupten, dass Verbesserungen in A.I. verringert die Menge an Ressourcen und Fachwissen, die für die Durchführung einiger Cyberangriffe erforderlich sind, und verringert wirksam die Verbrechensbarrieren:
Die Kosten für Angriffe können durch den skalierbaren Einsatz von AI-Systemen zur Durchführung von Aufgaben gesenkt werden, für die normalerweise Arbeit, Intelligenz und Fachwissen erforderlich sind. Ein natürlicher Effekt wäre, die Anzahl der Akteure, die bestimmte Angriffe ausführen können, sowie die Geschwindigkeit, mit der sie diese Angriffe ausführen können, und die Anzahl möglicher Ziele zu erweitern.
Der Bericht enthält vier Empfehlungen:
1 - Die politischen Entscheidungsträger sollten eng mit technischen Forschern zusammenarbeiten, um potenzielle böswillige Verwendungen von KI zu untersuchen, zu verhindern und einzudämmen.
2 - Forscher und Ingenieure im Bereich der künstlichen Intelligenz sollten den dualen Verwendungszweck ihrer Arbeit ernst nehmen, so dass missbrauchsbezogene Überlegungen Einfluss auf die Forschungsprioritäten und -normen haben und sich proaktiv an relevante Akteure wenden können, wenn schädliche Anwendungen vorhersehbar sind.
3 - Bewährte Verfahren sollten in Forschungsgebieten mit ausgereifteren Methoden zur Bewältigung von Zweifachgebrauch, wie etwa Computersicherheit, ermittelt und gegebenenfalls im Fall von AI eingeführt werden.
4 - Aktive Suche nach einer Erweiterung des Spektrums von Stakeholdern und Domain-Experten, die an der Diskussion dieser Herausforderungen beteiligt sind
Wie A.I. kann aktuelle Scams intelligenter machen: Zum Beispiel sind Spear-Phishing-Angriffe, bei denen Betrüger als Freund, Familienmitglied oder Kollege eines Ziels auftreten, um Vertrauen zu gewinnen und Informationen und Geld zu gewinnen, bereits eine Bedrohung. Heute erfordern sie jedoch einen erheblichen Aufwand an Zeit, Energie und Fachwissen. Als A.I. Die Komplexität der Systeme steigt, einige der für einen Spear-Phishing-Angriff erforderlichen Aktivitäten, wie das Sammeln von Informationen über ein Ziel, können automatisiert werden. Ein Phisher könnte dann erheblich weniger Energie in jede Schicht investieren und mehr Menschen ansprechen.
Und wenn Betrüger beginnen, A.I. In ihren Online-Grifts wird es möglicherweise unmöglich, die Realität von der Simulation zu unterscheiden. "Während sich die KI weiterentwickelt, können überzeugende Chatbots menschliches Vertrauen erwecken, indem sie Menschen in längere Dialoge einbeziehen und sich möglicherweise visuell als eine andere Person in einem Video-Chat maskieren", sagt der Bericht.
Wir haben bereits die Folgen maschinengenerierter Videos in Form von Deepfakes gesehen. Da diese Technologien zugänglicher und benutzerfreundlicher werden, befürchten die Forscher, dass schlechte Akteure hergestellte Fotos, Videos und Audiodateien verbreiten. Dies könnte zu äußerst erfolgreichen Diffamierungskampagnen mit politischen Auswirkungen führen.
Jenseits der Tastatur: Und potenzielle Fehlverhalten beschränkt sich nicht auf das Internet. Bei der Einführung autonomer Fahrzeuge könnten Hacker gegnerische Beispiele einsetzen, um selbstfahrende Autos dazu zu bringen, ihre Umgebung zu missverstehen. "Ein Abbild eines Stoppzeichens mit wenigen Pixeln, das auf bestimmte Weise geändert wurde, das Menschen leicht als Abbild eines Stoppzeichens erkennen würden, könnte dennoch als etwas völlig anderes durch ein AI-System eingestuft werden", sagt der Bericht.
Weitere Bedrohungen sind autonome Drohnen mit integrierter Gesichtserkennungssoftware für gezielte Zwecke, koordinierte Angriffe mit DOS, die menschliches Verhalten nachahmen, und automatisierte, hyperpersonalisierte Desinformationskampagnen.
Der Bericht empfiehlt Forschern, mögliche schädliche Anwendungen von A.I. zu berücksichtigen. während der Entwicklung dieser Technologien. Wenn keine angemessenen Abwehrmaßnahmen ergriffen werden, verfügen wir möglicherweise bereits über die Technologie, um die Menschheit zu zerstören. Es sind keine Killerroboter erforderlich.
Vorfälle der Hybridisierung der Arktis auf dem Vormarsch
Fügen Sie der Liste der Schäden, die mit dem Klimawandel in Verbindung stehen können, eine aggressive Kreuzung hinzu. Im Jahr 2006 zahlte der idahuanische Sportjäger Jim Martell Tausende von Dollar für das Recht, Eisbären im kanadischen Nordwest-Territorium zu jagen. Er hat einen Kill gemacht, aber statt seines beabsichtigten Ziels ...
Warum der durch Hacker verursachte Stromausfall in der Ukraine für die Vereinigten Staaten so beängstigend ist
Ein Stromausfall, der in der Weihnachtszeit die Hälfte der Häuser der ukrainischen Region Iwano-Frankiwsk betraf, war die Arbeit von zerstörerischer Malware, die von Hackern freigesetzt wurde. Es erinnert daran, dass industrielle Systeme weltweit - einschließlich derer in den USA - zunehmend durch digitale Angriffe angegriffen werden. Tausende von Häusern ...
Wer sollte der nächste Doktor sein, wenn Peter Capaldi "Doctor Who" verlässt?
Nachdem Steven Moffat gegangen ist, liegt es an Chris Chibnall, den Anruf zu tätigen.