Hooepage Cybersecuritv Cyberpace
automatische Auto gehirnlose Mobilität Hacker übernehmen Sie Tesla  und andere ? Automatische Mobilität Testperson Käufer Roboter - Auto Elektro-Auto
Fremd-gesteuerte autonome Automobile
 

Traum? Albtraum ! : Roboterautos sind zum Scheitern verdammt

Hacker legen
Teslas Autopiloten herein, wenn sie Auto in Gegenverkehr schicken

Abgasreinigung mit kleinen unredlichen Macken ...

Funksteuerung für die bequeme Öffnung Ihrer Autotür mit kleinen Macken ...

„Weiter als die Konkurrenz“: Die „Welt“ lobt Roboterauto des russischen Tech-Giganten Yandex


 



 



Sputniknews

Hacker legen Teslas Autopiloten herein, wenn sie Auto in Gegenverkehr schicken

CC von SA 2.0 / Joseph Thornton/tesla Modell S Nebelscheinwerfer

Technische Fachschule

 

Forscher an scharfen Laboratorien in China, eine bekannte cyber Sicherheitsforschungsgruppe, gab einen neuen Bericht heraus, der beschreibt, wie sie in der Lage waren, ein tesla Modell S Selbstfahren hereinzulegen, Auto darin, mit kommendem Verkehr durch einfach Stellen von Aufklebern auf die Straße zu beginnen sich dadurch in die Autopilotengassenerkennungstechnik des Autos einmischen.

Nach dem Bericht schufen die Forscher eine "unechte Zeile" durch Stellen von drei winzigen Aufklebern auf eine Straße., "wir einklebten einige kleine Aufkleber, wie Einmischung auf dem Boden in einer Kreuzung flickt," die Forscher schrieben in den Bericht.

Die professionellen Hacker fanden die Autopilotengassenerkennungstechnik dieses teslas, die von Ultraschallsensoren und Kameras abhängt, um die Umgebung des Autos zu verstehen, betrachtete die unauffälligen Aufkleber auf der Straße als eine neue Gasse das Auto in versehentlich sich ändernde Gassen hereinlegen und auf diese Art bewirken, dass es sich in Gegenverkehr verwandelte.

 

© Screenshot

Scharfe Laboratorien experimentieren stellt graphisch dar

"Die Gassenanerkennungsfunktion des Tesla Autopilotenmoduls hat eine gute Robustheit in einer gewöhnlichen externen Umgebung (keinem starken Licht, keinem starken Regen, keinem starken Schnee, keinem starken Sand und keiner starken Staubeinmischung), aber sie behandelt die Situation immer noch nicht richtig in unserem Testszenario " die Forscher erklärten.

"Diese Art von Angriff ist einfach, einzusetzen, und die Materialien sind leicht zu bekommen. Da wir in der vorherigen Einführung von teslas Gassenanerkennungsfunktion redeten, verwendet tesla eine reine Computervisionslösung für Gassenerkennung, und wir fanden in diesem Angriffsversuch, auf dem das Fahrzeug, das Entscheidung fuhr, nur basiert, Computervisionsgassenanerkennungsergebnisse. Unsere Versuche bewiesen, dass diese Architektur Sicherheitsrisiken hat, und entgegengesetzte Gassenerkennung ist eine der notwendigen Funktionen für autonomes Fahren in nicht-geschlossenen Straßen, "der Bericht fügt hinzu.

Im Jahr 2014 führte Tesla sein Insektenkopfgeldprogramm ein, um Sicherheitsforscher zu ermutigen, Verwundbarkeiten in den Techniken und Programmen des Autos zu entdecken. Die Belohnungen erstrecken sich im Allgemeinen von $ 25 bis zu $ 15,000.

 

 

"Wir entwickelten unser Insektenkopfgeldprogramm im Jahr 2014, um mit den begabtesten Mitgliedern der Sicherheitsforschungsgemeinschaft mit dem Ziel zu beschäftigen, diese genaue Art der Rückmeldung anzuflehen, "Tesla, das in einer Erklärung, die der Veröffentlichung des Berichts des scharfen Laboratoriums folgt, besagt ist. Sie charakterisierte die im Bericht des Laboratoriums aufgedeckten Verwundbarkeiten, als nicht zu reflektieren, ein "gegebene realistische Sorge dass ein Fahrer jederzeit leicht Autopiloten durch Verwenden des Lenkrads oder der Bremsen außer Kraft setzen kann . "

Die Forscher zeigten auch, wie teslas automatische Scheibenwischer fälschlicherweise durch einfach Stellen eines Fernsehapparats vor das Auto aktiviert wurden. In tesla beachtete Antwort, die Gesellschaft, dass das automatische Scheibenwischersystem jederzeit ausgeschaltet werden kann, um dem Fahrer manuelle Autonomie von den Wischern zu geben.

 

 

https://sputniknews.com/science/201904031073773062-hackers-trick-tesla-autopilot-incoming-traffic/