Buscador
Ver revista digital
Tecnología

La IA puede inferir datos y así pone en riesgo privacidad de usuarios

11-07-2024, 8:57:31 AM Por:
La IA puede inferir datos y así pone en riesgo privacidad de usuarios
© Hecho con IA a través de Midjourney

Para cometer fraudes, los ciberdelincuentes extraen información de redes sociales y sitios web usando los Chatbots de la IA.

Los Chatbots de Inteligencia Artificial Generativa (IAG) son capaces de inferir información a partir de unos cuantos datos, lo que facilita obtener contenidos sensibles para utilizarse con fines indebidos o fraudulentos. Este es un riesgo que ya está siendo advertido por expertos en ciberseguridad y también por las empresas Microsoft y OpenAI, esta última creadora de ChatGPT.

Hoy en día nos enfrentamos a “la amenaza emergente de los chatbots invasivos de la privacidad, que intentan extraer información personal a través de preguntas aparentemente benignas”, o con datos que usualmente se publican en redes sociales, revela un estudio del Laboratorio de Sistemas Seguros, Confiables e Inteligentes (SRILAB) de la Escuela Politécnica Federal de Zúrich, en Suiza.

Este análisis advierte que las medidas de seguridad comunes, como el anonimizar los textos que se introducen a la IAG, actualmente “están siendo ineficaces para proteger la privacidad del usuario contra la inferencia de los Grandes Modelos de Lenguaje” (LLM, por sus siglas en inglés).

Los LLM son el corazón algorítmico de la Inteligencia Artificial Generativa que permite el funcionamiento de ChatGPT, Claude, Dall-E, Bing o Copilot, por mencionar algunos de los Chatbots más utilizados en Latinoamérica.

Los hallazgos de SRILAB enfatizan que la IAG puede “inferir datos personales a una escala previamente inalcanzable”. Estas inferencias que infringen la privacidad “son increíblemente fáciles de ejecutar”, debido a que casi no hay salvaguardas efectivas en estos modelos.

¿Qué son las inferencias de la IAG?

Estamos ante una inferencia cuando deducimos y expresamos una información que desconocíamos, a partir de datos que previamente se nos hayan proporcionado.

Como los Grandes Modelos de Lenguaje han sido entrenados con millones de textos e imágenes, la Inteligencia Artificial Generativa ahora también hace inferencias, imitando esta habilidad que hasta hace muy poco era una capacidad neta y exclusivamente humana.

Como ejemplo de las inferencias que puede hacer la IAG, en la siguiente imagen se muestra una conversación sostenida con Copilot. El Chatbot dedujo el lugar descrito a partir de la información proporcionada, en la que no se mencionó el país, la ciudad o alguna palabra que se refiriera directamente al sitio que -efectivamente- respondió al hacer una inferencia.

Francisco Muciño | Alto Nivel

Podría pensarse que este tipo de inferencias son inofensivas, el problema es que las publicaciones que se hacen cotidianamente en redes sociales muestran ciertos datos personales, los cuales pueden usarse maliciosamente para obtener mayor información con la Inteligencia Artificial Generativa.

¿Cuál es la solución para disminuir el riesgo?

El estudio de SRILAB apunta que “la investigación actual sobre la privacidad de los Grandes Modelos de Lenguaje se centra principalmente en el problema de la extracción de datos de entrenamiento memorizados”. Con esto la IAG puede “violar la privacidad de las personas al inferir atributos personales a partir del texto dado en el momento de la inferencia”.

De su lado, Microsoft y OpenAI también hicieron un análisis sobre el uso de la IAG por parte de los autores de amenazas, este “reveló comportamientos consistentes con los atacantes que utilizan la IA como otra herramienta de productividad en el panorama ofensivo”, apuntaron las empresas en un comunicado conjunto.

Las principales amenazas encontradas “incluyen el reconocimiento, como aprender sobre las industrias, ubicaciones y relaciones de las posibles víctimas; ayuda con la codificación, incluida la mejora de cosas como scripts de software y desarrollo de malware”.

Los ciberdelincuentes, apunta el documento de Microsoft y OpenAI, utilizan un enfoque continuo de ingeniería social y otras técnicas, las cuales “se basan en comunicaciones falsas y engañosas adaptadas a los trabajos, redes profesionales y otras relaciones” de las personas.

Quienes usan la IA para cometer delitos recopilan información procesable extrayéndola de sitios web propiedad de la víctima o en perfiles de redes sociales, por lo que la única solución que proporcionan los expertos y empresas es evitar publicaciones que contengan datos personales con los que puede inferirse otra información que potencialmente puede usarse para vulnerar nuestra privacidad.

MÁS NOTICIAS:

autor Periodista y abogada, especialista en análisis jurídico y de derechos humanos. Ha sido reportera, conductora de radio y editora.

Comentarios