Buscador
Ver revista digital
Tecnología

¿Por qué Sam Altman, creador de ChatGPT, quiere tus datos biométricos?

06-02-2024, 6:10:00 AM Por:
© Especial

Más de 3.2 millones de personas en todo el mundo ya han entregado las imágenes de su rostro e iris, sin conocer del todo los riesgos que esto implica.

Imagina este escenario: Un ciudadano de un país no muy lejano demanda a su gobierno para obligarlo a que lo reconozca como humano, pues el individuo no ha querido “verificarse” en la gran base de datos que adquirieron las autoridades, y que sirve para llevar a cabo un proceso de identificación oficial obligatorio, sin el cual no se puede comprar ni adquirir ningún producto o servicio.

Sin dicha validación tampoco es posible obtener un trabajo, acudir al médico, conducir un automóvil, acceder a diversas zonas de la nación, e incluso -cualquier traslado que efectúe a pie el ciudadano- se ve obstaculizado por no contar con la “personalidad única” verificada.

No, no se trata de un argumento utópico o de ciencia ficción, es lo que puede ocurrir en el corto y mediano plazo a partir de que millones de ciudadanos están ingenuamente entregando sus datos biométricos a cambio de un monto en una moneda virtual equivalente a 855 pesos mexicanos.

Worldcoin, la criptomoneda creada por Sam Altman, también artífice de ChatGPT, es un token con un valor simbólico que, en realidad, está siendo utilizado para crear identidades digitales que contienen los datos biométricos de las personas, en un peligroso proceso con el que podríamos perder el control de nuestra autonomía y nuestros derechos más elementales.

Desde su lanzamiento, en julio de 2023, más de 3.2 millones de personas en todo el mundo ya han entregado las imágenes de su rostro e iris, a cambio de tokens que luego deben venderse en una aplicación para obtener alrededor de 50 dólares.

El proceso es sencillo y, por ende, engañoso para los incautos ciudadanos, la mayoría de países pobres, que ya entregaron estos datos personales sensibles, pues -para recibir Worldcoins- solo hay que permitir que el “Orbe” tome una fotografía de la cara y bajar una aplicación.

El Orbe (Orb, en inglés), es un dispositivo esférico de color plata que capta las “imágenes biométricas” de las personas y “verifica de forma privada y segura la personalidad única de un individuo”, se explica en la página web de la compañía de Altman (https://worldcoin.org).

Para hacer esto el aparato no se coloca en los ojos, sino que se ubica a cierta distancia para que el dispositivo capte todo el rostro del participante.

Riesgos inminentes

La empresa asegura, al promocionarse, que solo se extrae la imagen del iris que enseguida se codifica, convirtiéndose en datos, sin necesidad de que la persona proporcione su nombre, lo que presuntamente garantiza la privacidad del manejo de la información sensible que se recaba.

Sin embargo, Worldcoin recolecta algo más que la imagen del iris: Con el Orbe se obtienen “videos y fotografías en alta definición de tu cuerpo, cara y ojos, incluyendo tus iris”.

También se captan “los latidos del corazón, la respiración y otros signos vitales” a través de la “detección por radar Doppler sin contacto”, e igualmente se elabora “un mapa tridimensional de tu cuerpo y cara”, detalla el formulario de consentimiento que deben firmar todos los participantes.

Con esto, oficialmente, se crea un “código de iris” (IrisHash) que es almacenado en una cadena de bloques (blockchain), pero que también sirve para entrenar a los sistemas de Inteligencia Artificial Generativa (IAG).

Esto significa que esos datos podrán ser replicados por la IAG, imitando sus detalles y características. En pocas palabras, así como ChatGPT, Copilot o Bard pueden crear textos que imitan los escritos de humanos, estos sistemas también podrán reproducir y generar imágenes del iris, la cara y el cuerpo, creando múltiples identificaciones.

Además, como ocurre con cualquier información codificada, los algoritmos pueden realizar distintas clasificaciones. Así, será posible la implementación de categorías biométricas que permitirán las segmentaciones sociales, ambas violatorias de los derechos humanos.

Todos estos datos, reunidos en una gran base informática, podrían usarse para seleccionar al personal de una empresa, para contratar un seguro médico o de automóvil y, en el caso de los gobiernos, para identificar todos los comportamientos de las personas, desde sus hábitos de consumo, hasta sus convicciones religiosas o sus preferencias políticas.

Estamos hablando de control social, de disminución en la autonomía de los individuos, y en el peor de los casos, de la facultad para controlar la existencia oficial de una persona.

La revista MIT Technology Review, editada por el Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés), descubrió en un estudio “que los representantes de la empresa utilizaron prácticas de marketing engañosas, recopilaron más datos personales de los que reconocieron y no obtuvieron un consentimiento informado significativo”.

MÁS NOTICIAS:

autor Periodista y abogada, especialista en análisis jurídico y de derechos humanos. Ha sido reportera, conductora de radio y editora.
Comentarios