MIT sagt A.I. Noch nicht intelligent genug bei Cybersecurity, noch Menschen

$config[ads_kvadrat] not found

Bin ich Intelligent ? Die Frage stellt sich jeder!

Bin ich Intelligent ? Die Frage stellt sich jeder!
Anonim

Das Massachusetts Institute of Technology hat gute Nachrichten, wenn Sie in der Sicherheitsbranche tätig sind: A.I. Roboter könnten nicht nimm deinen Job

Forscher des Laboratoriums für Informatik und künstliche Intelligenz (CSAIL) des MIT veröffentlichten letzte Woche eine Veröffentlichung, in der ein verbessertes Cybersicherheitssystem mit dem Namen "A.I.²" beschrieben wird. Es ist ein "Analyst-in-the-Loop-System", das A.I. verwendet. durch riesige Datenmengen und menschliche Analytiker zu kämpfen, um Feedback zu geben.

A.I.² kombiniert die beiden derzeit verwendeten Arten von Cybersicherheitssystemen: durch Analysten (Menschen, die versuchen, Angriffe zu erkennen und auf Angriffe zu reagieren) und unbeaufsichtigt maschinelles Lernen (A.I. mithilfe von Mustern, um Angriffe vorherzusagen und zu erkennen). Beide Systeme haben ihre Schattenseiten. Menschen neigen dazu, wegen Cyberangriffen eine Menge Cyberangriffe zu verpassen, und A.I. neigt dazu, viele Fehlalarme auszulösen, da Muster nicht immer vorhersagend sind.

Durch die Kombination der Stärken eines Menschen bei der Erkennung echter Bedrohungen und der Stärke von A. I. bei der Verarbeitung großer Datenmengen entsteht ein stärkeres Sicherheitssystem. Außerdem können Menschen ihre Cybersecurity-Jobs behalten.

Wenn man sich wieder auf die menschliche Arbeit konzentriert, hört sich das an, als ob Forscher in einem künstlichen Intelligenzlabor versuchen würden, dies zu verhindern. Aber die Forscher des MIT behaupten, dass Menschen und A.I. zusammen führt dies zu einer Erkennungsrate von 86,8 Prozent - zehnmal besser als beim Solo-A.I. Rate von 7,9 Prozent - und macht es billiger zu booten.

A.I.² besteht aus vier Komponenten. Zunächst sammelt ein Computer große Daten. Die Daten werden verarbeitet und Ausreißer werden mit bereits vorhandenem A.I. Technologie. Dann wird der A.I. zieht alles, was möglicherweise "bösartig" ist, und sendet es an einen menschlichen Analytiker. Schließlich sendet der Analytiker eine Rückmeldung an die A.I., die aus den Informationen lernt und besser entschlüsselt, ob ein Angriff böswillig oder normal ist.

Ein realer Datensatz von 3,6 Milliarden Protokollzeilen bestätigte, dass A.I. und Menschen haben als Team bessere Ergebnisse erzielt als als getrennte Einheiten.

Insgesamt klingt A.I.² eher nach einem mittleren Schritt zwischen der Entwicklung von Technologie und vollständiger Autonomie. Die A.I. wird schließlich genug von ihren menschlichen Mitarbeitern lernen, dass der Schüler zum Meister wird. Aber bis tiefes Lernen A.I. Das Forschungspapier ist überwiegend effektiver als von Menschen unterstützte A.I. und prognostiziert, dass Cybersecurity-Analysten in ein paar Jahren Arbeitssicherheit arbeiten können.

$config[ads_kvadrat] not found