Buscador
Ver revista digital
Tecnología

‘Hackean’ el piloto automático de un Tesla y esto es lo que sucede

01-04-2019, 1:48:40 PM Por:
Tesla
© Reuters

El uso de las redes neuronales sirven para incorporar patrones específicos capaces de engañar la visión artificial del software, más no de el de los seres humanos.

Tencent Security Lab Keen, empresa de seguiridad tecnológica, publicó el pasado viernes un informe en el que se detallan varios ciberataques exitosos contra el software de piloto automático de los vehículos Tesla.

Algunos de estos ‘hackeos‘ son más o menos habituales, como la posibilidad de conectar un gamepad al coche de tal forma que anule tanto el piloto automático como el volante del mismo.

Lee: Facebook apuesta por la inteligencia artificial en sus redes 

Pero otros, destinados a lograr que el vehículo active los limpiaparabrisas aunque no esté lloviendo, o a convencerle de que circule por el carril erróneo de la carretera, entran en una categoría relativamente reciente, que conocemos como ‘ataques antagónicos’ o ‘adversariales’.

Los ataques antagónicos son métodos que utilizan redes neuronales para violar los sistemas de identificación. Son sistemas que buscan asemejarse al rendimiento de los seres humanos y son vulnerables a muestra antagónicas, de ahí su nombre, con lo que pueden crear errores en la identificación.

TeslaReuters

El uso de las redes neuronales sirven para incorporar patrones específicos capaces de engañar la visión artificial del software, más no de el de los seres humanos.

Recomendamos: Así es como la inteligencia artificial revoluciona las ventas 

¿Cómo fueron capaces los investigadores de Tencent Security Lab Keen de convencer al Tesla para que circulara por el carril contrario?

Los investigadores explican que recurrieron a la adición de ‘ruido’ a las marcas de carril (que aún permitían que éstas fueran perfectamente visibles para los humanos) con el fin de engañar al piloto automático y provocar que fuera incapaz de detectar los carriles.

El diseño adecuado del ‘ruido’ fue calculado primero en una simulación virtual, y luego ya aplicado en el mundo real.

TeslaReuters

El siguiente paso, sin embargo, fue utilizar pegatinas que, una vez aplicadas sobre la calzada, engañaban al piloto automático para que internara el vehículo en el carril contrario. De nuevo, el ensayo virtual fue el primer paso antes de usar las pegatinas en una carretera.

“Inducir a error al vehículo piloto automático con algunos parches elaborado por un atacante malintencionado, puede ser en ocasiones más peligroso que dejar de reconocer el carril.

Basta con pintar tres pequeños recuadros poco visible en la imagen tomada desde la cámara […] para que el vehículo pase a considerar el carril de la izquierda como una continuación del de la derecha”.

Aunque por el momento no suponen ningún tipo de peligro, el problema es que demuestran lo frágiles que pueden ser los sistema de inteligencia artificial.”

Te puede interesar: Así es como la Inteligencia Artificial revolucionará la productividad

Con información de Xataka

ataques antagonicos elon musk gamepad hackeos hackers inteligencia artificial piloto automatico redes neuronales seguridad tecnologica simulacion virtual sistemas de identificacion tecnologia Tencent Security Lab Keen tesla tesla model 3
mm Equipo de jóvenes periodistas cuyo objetivo es explicar las noticias más relevantes de negocios, economía y finanzas. Nos apasiona contar historias y creemos en el periodismo ciudadano y de servicio.
Suscríbete al Newsletter

Mantente actualizado con la mejor selección de noticias

Mag21
Comentarios