CC von SA
2.0 / Joseph Thornton/tesla Modell S Nebelscheinwerfer
Technische Fachschule
Forscher an scharfen Laboratorien in China,
eine bekannte cyber
Sicherheitsforschungsgruppe, gab einen neuen Bericht heraus, der
beschreibt, wie sie in der Lage waren, ein tesla Modell S Selbstfahren
hereinzulegen, Auto darin, mit kommendem Verkehr durch einfach Stellen
von Aufklebern auf die Straße zu beginnen sich dadurch in die
Autopilotengassenerkennungstechnik des Autos einmischen.
Nach dem Bericht schufen die Forscher eine "unechte Zeile" durch Stellen
von drei winzigen Aufklebern auf eine Straße., "wir einklebten einige
kleine Aufkleber, wie Einmischung auf dem Boden in einer Kreuzung
flickt," die Forscher schrieben in den Bericht.
Die
professionellen Hacker fanden die Autopilotengassenerkennungstechnik
dieses teslas, die von Ultraschallsensoren und Kameras abhängt, um die
Umgebung des Autos zu verstehen, betrachtete die unauffälligen Aufkleber
auf der Straße als eine neue Gasse das Auto in versehentlich sich
ändernde Gassen hereinlegen und auf diese Art bewirken, dass es sich in
Gegenverkehr verwandelte.
©
Screenshot
Scharfe Laboratorien experimentieren stellt graphisch dar
"Die Gassenanerkennungsfunktion des Tesla Autopilotenmoduls hat eine
gute Robustheit in einer gewöhnlichen externen Umgebung (keinem starken
Licht, keinem starken Regen, keinem starken Schnee, keinem starken Sand
und keiner starken Staubeinmischung), aber sie behandelt die Situation
immer noch nicht richtig in unserem Testszenario " die Forscher
erklärten.
"Diese Art von Angriff ist einfach, einzusetzen, und die Materialien
sind leicht zu bekommen. Da wir in der vorherigen Einführung von teslas
Gassenanerkennungsfunktion redeten, verwendet tesla eine reine
Computervisionslösung für Gassenerkennung, und wir fanden in diesem
Angriffsversuch, auf dem das Fahrzeug, das Entscheidung fuhr, nur
basiert, Computervisionsgassenanerkennungsergebnisse. Unsere Versuche
bewiesen, dass diese Architektur Sicherheitsrisiken hat, und
entgegengesetzte Gassenerkennung ist eine der notwendigen Funktionen für
autonomes Fahren in nicht-geschlossenen Straßen, "der Bericht fügt
hinzu.
Im
Jahr 2014 führte Tesla sein Insektenkopfgeldprogramm ein, um
Sicherheitsforscher zu ermutigen, Verwundbarkeiten in den Techniken und
Programmen des Autos zu entdecken. Die Belohnungen erstrecken sich im
Allgemeinen von $ 25 bis zu $ 15,000.
"Wir entwickelten unser Insektenkopfgeldprogramm im Jahr 2014, um mit
den begabtesten Mitgliedern der Sicherheitsforschungsgemeinschaft mit
dem Ziel zu beschäftigen, diese genaue Art der Rückmeldung anzuflehen,
"Tesla, das in einer Erklärung, die der Veröffentlichung des Berichts
des scharfen Laboratoriums folgt, besagt ist. Sie charakterisierte die
im Bericht des Laboratoriums aufgedeckten Verwundbarkeiten, als nicht zu
reflektieren, ein "gegebene realistische Sorge dass ein Fahrer jederzeit
leicht Autopiloten durch Verwenden des Lenkrads oder der Bremsen außer
Kraft setzen kann . "
Die
Forscher zeigten auch, wie teslas automatische Scheibenwischer
fälschlicherweise durch einfach Stellen eines Fernsehapparats vor das
Auto aktiviert wurden. In tesla beachtete Antwort, die Gesellschaft,
dass das automatische Scheibenwischersystem jederzeit ausgeschaltet
werden kann, um dem Fahrer manuelle Autonomie von den Wischern zu geben.
https://sputniknews.com/science/201904031073773062-hackers-trick-tesla-autopilot-incoming-traffic/