revista
Suscripciones Media Kit

Síguenos

Tecnología

‘Hackean’ el piloto automático de un Tesla y esto es lo que sucede

El uso de las redes neuronales sirven para incorporar patrones específicos capaces de engañar la visión artificial del software, más no de el de los seres humanos.

01-04-2019, 1:48:40 PM
Tesla

Tencent Security Lab Keen, empresa de seguiridad tecnológica, publicó el pasado viernes un informe en el que se detallan varios ciberataques exitosos contra el software de piloto automático de los vehículos Tesla.

Algunos de estos ‘hackeos‘ son más o menos habituales, como la posibilidad de conectar un gamepad al coche de tal forma que anule tanto el piloto automático como el volante del mismo.

Lee: Facebook apuesta por la inteligencia artificial en sus redes 

Pero otros, destinados a lograr que el vehículo active los limpiaparabrisas aunque no esté lloviendo, o a convencerle de que circule por el carril erróneo de la carretera, entran en una categoría relativamente reciente, que conocemos como ‘ataques antagónicos’ o ‘adversariales’.

Los ataques antagónicos son métodos que utilizan redes neuronales para violar los sistemas de identificación. Son sistemas que buscan asemejarse al rendimiento de los seres humanos y son vulnerables a muestra antagónicas, de ahí su nombre, con lo que pueden crear errores en la identificación.

TeslaReuters

El uso de las redes neuronales sirven para incorporar patrones específicos capaces de engañar la visión artificial del software, más no de el de los seres humanos.

Recomendamos: Así es como la inteligencia artificial revoluciona las ventas 

¿Cómo fueron capaces los investigadores de Tencent Security Lab Keen de convencer al Tesla para que circulara por el carril contrario?

Los investigadores explican que recurrieron a la adición de ‘ruido’ a las marcas de carril (que aún permitían que éstas fueran perfectamente visibles para los humanos) con el fin de engañar al piloto automático y provocar que fuera incapaz de detectar los carriles.

El diseño adecuado del ‘ruido’ fue calculado primero en una simulación virtual, y luego ya aplicado en el mundo real.

TeslaReuters

El siguiente paso, sin embargo, fue utilizar pegatinas que, una vez aplicadas sobre la calzada, engañaban al piloto automático para que internara el vehículo en el carril contrario. De nuevo, el ensayo virtual fue el primer paso antes de usar las pegatinas en una carretera.

“Inducir a error al vehículo piloto automático con algunos parches elaborado por un atacante malintencionado, puede ser en ocasiones más peligroso que dejar de reconocer el carril.

Basta con pintar tres pequeños recuadros poco visible en la imagen tomada desde la cámara […] para que el vehículo pase a considerar el carril de la izquierda como una continuación del de la derecha”.

Aunque por el momento no suponen ningún tipo de peligro, el problema es que demuestran lo frágiles que pueden ser los sistema de inteligencia artificial.”

Te puede interesar: Así es como la Inteligencia Artificial revolucionará la productividad

Con información de Xataka

También podría interesarte:

Artículos relacionados

Comentarios