FYI.

This story is over 5 years old.

Tech

Hacker können selbstfahrende Autos mit Billig-Laserpointer in den Graben lenken

Ein simpler Hack lässt selbstfahrende Autos halluzinieren und anhalten.
Bild: imago

Das mehrere tausend Euro teure Laser-Radarsystem LiDAR, auf das sich die meisten selbstfahrenden Autos verlassen, kann mit einem simplen Setup gehackt werden, dessen Hardware nur schlappe 53 Euro kostet. Mit Hilfe eines einfach erhältlichen Laserpointers konnte der Sicherheitsforscher Jonathan Petit von Security Innovation dafür sorgen, dass die Autos hallunizinieren und meinen, dass vor ihnen auf der Straße imaginäre Objekte liegen, woraufhin sie entsprechende Ausweichmanöver einleiten.

Anzeige

Der Hacker konnte selbstfahrende Auto unter anderem glauben lassen, dass sich direkt vor der Kühlerhaube ein Hindernis befände. Die Objekte wie ein Auto, ein Fußgänger oder ein Baum, zwingen das Auto dann entsprechend zum Bremsen. Oder es fährt gar nicht erst los: Das Auto wird dafür mit so vielen Signalen zugespammt, so dass es meint, überall befänden sich Hindernisse, und sich gar nicht mehr bewegt.

„Ich kann tausende von Objekten erfinden und sozusagen mit einer DoS-Attacke auf das Trackingsystem dieses daran hindern, die tatsächliche Umgebung zu erfassen", wird der Hacker gegenüber IEEE Spectrum zitiert.

Für die sogenannte Replay-Attacke schickte Petit aufgezeichnete Lichtreflexions-Daten beliebiger Hindernisse wie Mauern oder Fussgänger mit einer Art Laserpointer (einem Niedrigenergielaser) und einem Pulsgenerator an die Sensoren auf dem Dach des autonomen Autos. Selbst auf den Pulsgenerator kann verzichtet werden: „Kannst du ganz einfach mit einem Arduino oder Raspberry Pi machen", so Petit.

Ein Beispiel für die 3D-erfasste Umgebung eines LiDAR-Systems. Bild: USGOV

Ein LiDAR (Light Detection and Ranging) ist ein Lasersystem, mit dem sich fahrerlose Autos im Raum orientieren und ein dreidimensionales Bild von ihrer Umgebung erstellen.

Die Manipulation ist so einfach, weil die Daten der LiDAR-Sensoren nicht verschlüsselt werden. In Tests funktionierte die Täuschung selbst aus einer Entfernung von 100 Metern aus allen Winkeln. Dem autonomen Fahrzeug konnte Petit Gegenstände im Abstand von 20 bis 350 Metern Entfernung vorgaukeln. Auch die Bewegung einzelner Gegenstände kann vorgetäuscht werden.

Ein selbstfahrendes Auto bei einem Testlauf auf den Straßen von Zürich. Bild (Ausschnitt): Imago

Petit hat zu seiner Forschung ein Paper verfasst und wird sein Auto-Kidnapping bei der Black Hat-Europe Konferenz im November dieses Jahres vorstellen. Petit gab zwar zu, dass er seinen Hack nur mit einem spezifischen (nicht weiter genannten Modell) erprobt hätte, erklärte aber auch, dass das dahinterliegende Problem unverschlüsselter LIDAR-Systeme theoretisch alle selbstfahrenden Autosystem anfällig mache.

Die Hersteller solcher LIDAR-Systeme müssen sich nun Gedanken machen, wie die Signale verschlüsselt werden könnten, um derartige Angriffe zu verhindern. Auch der Abgleich mit anderen Sensoren statt der alleinige Verlass auf die LiDAR-Sensoren kann helfen, die Auto-Halluzinationen zu vermeiden und dem Fahrzeug zu helfen, sich ein Bild von der tatsächlichen Umgebung zu machen.