HistoriasTecnología

Captchas: cuidado con los robots maliciosos

Se ha demostrado que los robots informáticos tienen la capacidad de traspasar la seguridad de un sitio y participar como cualquier usuario humano, sin problemas.

09-11-2011, 8:18:14 PM
Captchas: cuidado con los robots maliciosos
Altonivel

De seguro más de alguna vez te has topado con páginas que al momento de ingresar tu nickname y password muestran una imagen compuesta por una serie de letras y números – conocidos como captchas- que debes descifrar para permitirte el acceso. ¿Su objetivo? otorgar .seguridad a la información, evitando el ingreso de “robots” diseñados para robarla.

Desde hace varios años que se da por entendido que una máquina tendría dificultades para descifrar caracteres borrosos, distorsionados o rotados. Sin embargo, algunas investigaciones han demostrado lo erróneo de esta tesis.

Al parecer los captchas son más frágiles y fáciles de atravesar de lo que se pensaba y, por el contrario, los .algoritmos utilizados por los robots mejoran su destreza para analizar la imagen y detectar únicamente los números y las letras que abren paso al interior de un sitio Web. ¿De seguridad?, nada.

Dos investigaciones universitarias de distinto enfoque lo han demostrado. Una ha diseñado robots para crear perfiles en .Facebook y captar amistades. La otra se ha centrado en los llamados captchas.

Descaptcha

Con el objetivo de llamar la atención sobre la necesidad de mejorar los obstáculos y, en general, la seguridad para que los robots no puedan ingresar a las páginas, un equipo de la Universidad de Stanford creó una herramienta que buscaba descifrar captchas y que fue probada en diversos sitios de grandes empresas como .Amazon, Wikipedia e incluso de marcas financieras como Visa.

De este modo, la herramienta llamada “Decaptcha” logró descifrar el 66% de los captchas usados en un sitio de Visa y el 70% de los que presentaba el sitio de la empresa de videojuegos Blizzard, mientras que Wikipedia presentó una fragilidad del 25%.

El único sitio cuyos captchas resistieron a los robots universitarios fue el de Google, debido únicamente a que utilizan un software denominado “ReCaptcha”, especializado en este tipo de seguridad.

“El objetivo de estos test visuales es impedir que sistemas automáticos puedan ser utilizados para entrar en una web y recuperar información. Pero los captchas no son infalibles. Minimizan este riesgo, pero no lo anulan totalmente”, asegura Igor Unanue, director de I+D de S21SEC.

Para el experto, hay otros sistemas más efectivos pero resultan más engorrosos para el internauta.

¿El problema? Es que la brecha entre la capacidad para descifrar que antiguamente existía entre una persona y una máquina se ha acortado mucho.

¿Conoces algún sistema que puedan utilizar los sitios Web para mejorar su seguridad?

Relacionadas

Comentarios