Der schnelle Vormarsch von A. I. sollte beängstigend sein, wenn Sie aufpassen

$config[ads_kvadrat] not found

Der große Umbruch - Wie Künstliche Intelligenz unseren Alltag verändert

Der große Umbruch - Wie Künstliche Intelligenz unseren Alltag verändert
Anonim

Wenn es darum geht, existenzielle Bedrohungen durch technologische Innovationen zu identifizieren, ruft die populäre Vorstellungskraft Visionen von Terminator, Die Matrix, und Ich Roboter - Dystopien, die von Robotermächten regiert werden, die Menschen massiv ausbeuten und ausrotten. In diesen spekulativen Futures führt eine Kombination aus Superintelligenz und bösen Absichten dazu, dass Computer die Menschheit vernichten oder versklaven.

Eine neue Studie legt jedoch nahe, dass es sich um die banalen Anwendungen von A.I. das wird in den nächsten Jahren zu gravierenden sozialen Folgen führen. Der Bericht - "Schädliche Nutzung künstlicher Intelligenz" - verfasst von 26 Forschern und Wissenschaftlern von Eliteuniversitäten und technologiebasierten Denkfabriken, skizziert Möglichkeiten, die A.I. Technologien bedrohen unsere physische, digitale und politische Sicherheit. Um ihre Studie in den Fokus zu rücken, untersuchte die Forschungsgruppe innerhalb der nächsten fünf Jahre nur Technologien, die bereits vorhanden sind oder plausibel sind.

Was die Studie gefunden hat: A.I. Systeme werden wahrscheinlich bestehende Bedrohungen erweitern, neue Bedrohungen einführen und deren Charakter verändern. Die These des Berichts lautet, dass der technologische Fortschritt bestimmte Missetaten leichter und lohnenswerter machen wird. Die Forscher behaupten, dass Verbesserungen in A.I. verringert die Menge an Ressourcen und Fachwissen, die für die Durchführung einiger Cyberangriffe erforderlich sind, und verringert wirksam die Verbrechensbarrieren:

Die Kosten für Angriffe können durch den skalierbaren Einsatz von AI-Systemen zur Durchführung von Aufgaben gesenkt werden, für die normalerweise Arbeit, Intelligenz und Fachwissen erforderlich sind. Ein natürlicher Effekt wäre, die Anzahl der Akteure, die bestimmte Angriffe ausführen können, sowie die Geschwindigkeit, mit der sie diese Angriffe ausführen können, und die Anzahl möglicher Ziele zu erweitern.

Der Bericht enthält vier Empfehlungen:

1 - Die politischen Entscheidungsträger sollten eng mit technischen Forschern zusammenarbeiten, um potenzielle böswillige Verwendungen von KI zu untersuchen, zu verhindern und einzudämmen.

2 - Forscher und Ingenieure im Bereich der künstlichen Intelligenz sollten den dualen Verwendungszweck ihrer Arbeit ernst nehmen, so dass missbrauchsbezogene Überlegungen Einfluss auf die Forschungsprioritäten und -normen haben und sich proaktiv an relevante Akteure wenden können, wenn schädliche Anwendungen vorhersehbar sind.

3 - Bewährte Verfahren sollten in Forschungsgebieten mit ausgereifteren Methoden zur Bewältigung von Zweifachgebrauch, wie etwa Computersicherheit, ermittelt und gegebenenfalls im Fall von AI eingeführt werden.

4 - Aktive Suche nach einer Erweiterung des Spektrums von Stakeholdern und Domain-Experten, die an der Diskussion dieser Herausforderungen beteiligt sind

Wie A.I. kann aktuelle Scams intelligenter machen: Zum Beispiel sind Spear-Phishing-Angriffe, bei denen Betrüger als Freund, Familienmitglied oder Kollege eines Ziels auftreten, um Vertrauen zu gewinnen und Informationen und Geld zu gewinnen, bereits eine Bedrohung. Heute erfordern sie jedoch einen erheblichen Aufwand an Zeit, Energie und Fachwissen. Als A.I. Die Komplexität der Systeme steigt, einige der für einen Spear-Phishing-Angriff erforderlichen Aktivitäten, wie das Sammeln von Informationen über ein Ziel, können automatisiert werden. Ein Phisher könnte dann erheblich weniger Energie in jede Schicht investieren und mehr Menschen ansprechen.

Und wenn Betrüger beginnen, A.I. In ihren Online-Grifts wird es möglicherweise unmöglich, die Realität von der Simulation zu unterscheiden. "Während sich die KI weiterentwickelt, können überzeugende Chatbots menschliches Vertrauen erwecken, indem sie Menschen in längere Dialoge einbeziehen und sich möglicherweise visuell als eine andere Person in einem Video-Chat maskieren", sagt der Bericht.

Wir haben bereits die Folgen maschinengenerierter Videos in Form von Deepfakes gesehen. Da diese Technologien zugänglicher und benutzerfreundlicher werden, befürchten die Forscher, dass schlechte Akteure hergestellte Fotos, Videos und Audiodateien verbreiten. Dies könnte zu äußerst erfolgreichen Diffamierungskampagnen mit politischen Auswirkungen führen.

Jenseits der Tastatur: Und potenzielle Fehlverhalten beschränkt sich nicht auf das Internet. Bei der Einführung autonomer Fahrzeuge könnten Hacker gegnerische Beispiele einsetzen, um selbstfahrende Autos dazu zu bringen, ihre Umgebung zu missverstehen. "Ein Abbild eines Stoppzeichens mit wenigen Pixeln, das auf bestimmte Weise geändert wurde, das Menschen leicht als Abbild eines Stoppzeichens erkennen würden, könnte dennoch als etwas völlig anderes durch ein AI-System eingestuft werden", sagt der Bericht.

Weitere Bedrohungen sind autonome Drohnen mit integrierter Gesichtserkennungssoftware für gezielte Zwecke, koordinierte Angriffe mit DOS, die menschliches Verhalten nachahmen, und automatisierte, hyperpersonalisierte Desinformationskampagnen.

Der Bericht empfiehlt Forschern, mögliche schädliche Anwendungen von A.I. zu berücksichtigen. während der Entwicklung dieser Technologien. Wenn keine angemessenen Abwehrmaßnahmen ergriffen werden, verfügen wir möglicherweise bereits über die Technologie, um die Menschheit zu zerstören. Es sind keine Killerroboter erforderlich.

$config[ads_kvadrat] not found