Selbstfahrende Autos: MIT-Team stellt LIDAR-Sensoren der nächsten Generation vor

$config[ads_kvadrat] not found

GAC.impulse: Klaus Schilling spricht über kleine, vernetzte, kooperierende Satelliten

GAC.impulse: Klaus Schilling spricht über kleine, vernetzte, kooperierende Satelliten
Anonim

Selbstfahrende Autos kommen, mit 2020 wird oft das Jahr angegeben, in dem völlig autonome Fahrzeuge auf die Straße kommen werden. Ihr Erfolg wird jedoch davon abhängen, ob die Sensoren des Autos gut genug sind, um alles um sich herum zu sehen und darauf zu reagieren.

Aktuelle Fahrzeuge, die mit Formen der selbstfahrenden Technologie ausgestattet sind, wie der Autopilot von Tesla, verlassen sich auf sogenannte Lichterkennungs- und Entfernungssensoren oder LIDAR. Diese Kamera schießt einen Lichtstrahl aus und misst, wie lange es dauert, bis das Licht vom Sensor zurück zum Sensor kommt, ähnlich wie ein Sonar.

"Das Problem ist, dass sich das Licht sehr schnell bewegt. In einer Nanosekunde ist das Licht einen Fuß gegangen", erzählt Achuta Kadambi, Doktorandin am Massachusetts Institute of Technology Inverse in einem anruf.

Diese Geschwindigkeiten machen es dem Sensor schwer, präzise zu sagen genau Wie lange hat es gedauert, bis das Licht herausgefahren ist. Je weiter ein Objekt entfernt ist, desto unschärfer wird es, und der einzige Weg, es zu lösen, besteht darin, das System leistungsfähig genug zu machen, um unterschiedliches Licht zu unterscheiden, das in jeder Bruchteil einer Nanosekunde einfällt.

"Das heißt, wenn Sie eine Weglängenauflösung wünschen, die besser ist als ein Fuß, dann muss mein Sensor eine Zeitauflösung haben, die besser als eine Milliardstel Sekunde ist", sagt Kadambi. "Das verlangt viel."

In einem Artikel veröffentlicht in IEEE-Zugriff Letzte Woche beschreiben Achuta und Dr. Ramesh Raskar, wie sie einen Weg gefunden haben, das zu überwinden, was sie "den Fluch der Lichtgeschwindigkeit" nennen.

Anstatt eine leistungsstarke Kamera zu erstellen, die alle Schwingungen der Lichtwellen erfasst, filtern sie das Licht durch ein faseroptisches Material, um es einfacher messen zu können.

"Wir haben eine ausgeklügelte Methode entwickelt, um das Licht zu filtern, bevor es auf den Detektor fällt", sagt Kadambi. "Auf diese Weise können wir gewöhnliche Detektoren verwenden, aber die Weglängenauflösung außergewöhnlicher Systeme erhalten."

Das kann alles etwas technisch werden, aber es gibt eine Möglichkeit, wie das System funktionieren kann: Angenommen, ein selbstfahrendes Auto schießt einen Strahl, der eine Milliarde Mal pro Sekunde pulsiert. Während einige mit dieser Geschwindigkeit zum Auto zurückspringen, sind andere nur geringfügig von der Umgebung beeinflusst, so dass sie mit 999.999.999 Impulsen pro Sekunde zurückkehren.

Dies wäre ein fast unmöglicher Unterschied für ein Computersystem - außer, dass die Interaktion dieser beiden Strahlen das Äquivalent ihrer Impulse ist, die sich gegenseitig auslöschen und nur noch übrig bleiben ein Impuls jede Sekunde. Das ist für Sensoren viel einfacher zu erfassen.

Diese Art von Abkürzungen kann selbstfahrende Technologien billiger, einfacher und hoffentlich leistungsfähiger machen. Ein potenzieller Vorteil dieses Aufbaus besteht darin, dass Autos auch bei Nebel in die Ferne sehen können, wo bestehende LIDAR-Systeme Schwierigkeiten haben.

Heutige Sensoren kosten etwa 75.000 US-Dollar. Diese Kosten müssen wahrscheinlich sinken, um selbstfahrende Autos für den durchschnittlichen Autofahrer erschwinglich zu machen - na ja, Auto Nutzer Wir gehen davon aus, dass der Begriff erst dann verwendet werden muss, wenn wir den Treiber nicht mehr machen - aber LIDAR besser zu machen, als es jetzt der Fall ist, könnte sie noch teurer machen.

Mit Hilfe von Achuta und Raskars Forschung könnten autonome Fahrzeuge mit dem Material nachgerüstet werden, mit dem sie die Auflösung der Kameras bereits in den Autos erhöhen. Dies wäre eine kostengünstige Lösung, um wirklich selbstfahrende Autos Wirklichkeit werden zu lassen.

$config[ads_kvadrat] not found