Buscador
Ver revista digital
Tecnología

¿Usas ChatGPT? ¡Cuidado! el sistema de IA también tiene riesgos

12-01-2023, 6:10:00 AM Por:
© Depositphotos

Las alertas a considerar son la creación de malware y, sobre todo, las respuestas con información incorrecta o engañosa.

Son miles, quizás millones, los usuarios que están entusiasmados con ChatGPT, la herramienta de Inteligencia Artificial (IA), desarrollada en 2022, que permite la creación automática de tareas, ensayos y artículos, aunque también de software malicioso o malware, por lo que -en ambos casos- ya hay diversas alertas que debemos tomar en cuenta.

El chatbot ChatGPT, creado por la empresa OpenAI, fundada por el multimillonario Elon Musk, es un sistema que funciona como página web, o como aplicación que se puede instalar en cualquier dispositivo móvil.

Para su funcionamiento utiliza el llamado Modelo de Gran Lenguaje (Large Language Model o LLM en inglés), que es un programa informático creado con instrucciones (algoritmos) que se ejecutan dependiendo de las acciones que se le soliciten.

La meta de la herramienta, además de la automatización para la creación de textos, es “obtener comentarios externos para mejorar”, robustecer, y hacer más seguro el sistema, aunque se advierte que las respuestas expresadas por el bot pueden contener, ocasionalmente, contenido ofensivo o tendencioso, e “información incorrecta o engañosa”.

La intención general, se aclara cuando se accede a su interfaz, no es dar consejos, en tanto que se pide no compartir ninguna información de carácter confidencial en las conversaciones introducidas.

En ese tenor, la primera recomendación para todos los usuarios es justo esa: Cuidado con los datos que se le proporcionan al chat. Deben evitarse detalles personales, datos sensibles, e información de terceras personas, además de que todos los usuarios tienen que verificar, con fuentes autorizadas, los resultados que arroje el programa, pues no todos son correctos.

Inconsistencias constantes

Si estás pensando que ChatGPT hará todas las tareas que te dejen en el semestre, independientemente de la carrera que estudies, o si pretendes que el bot redacte por ti esos informes laborales que debes entregar cada mes, tienes que saber que no todas las respuestas que se obtienen pueden considerarse válidas o acertadas.

La herramienta arroja constantes errores y divergencias, por ejemplo, ALTO NIVEL realizó varios ejercicios, comprobando que en las respuestas hay equivocaciones e inconsistencias en la información resultante.

Por ejemplo, considerando que se trata de una noticia reciente, se hizo la pregunta “¿Quién es Ovidio Guzmán?”. El primer resultado fue parcialmente equivocado, pues ChatGPT respondió que “es el hijo del fallecido líder del cártel de Sinaloa, Joaquín “El Chapo” Guzmán”. Como sabemos, el personaje sí es vástago de dicho narcotraficante, pero este no ha fallecido.

En esa respuesta también se incluyó que “Ovidio es conocido por haber sido arrestado en octubre de 2020 en México y su detención causó un violento enfrentamiento entre las autoridades y los miembros del cártel de Sinaloa”. En realidad, fue primero detenido en octubre de 2019, liberado inmediatamente después por órdenes del presidente Andrés Manuel López Obrador, y reaprehendido el pasado 5 de enero de 2023.

A su vez, al preguntarle “¿Quién es Arturo Zaldívar?”, ChatGPT respondió que es “actualmente presidente de la Suprema Corte de Justicia de México y ha sido magistrado de la misma desde el año 2013”. Obviamente, el bot aun no está actualizado, pues Zaldívar ya no es, desde el pasado 2 de enero, presidente de la Corte. Otro error es que ubica al jurista como miembro del máximo tribunal del país desde 2013, cuando en realidad este llegó a esa instancia en 2009.

En este resultado se agrega que, “antes de su carrera como juez, Zaldívar se desempeñó como abogado en diversas firmas y en el sector público, siendo secretario de Desarrollo Agropecuario y Recursos Hidráulicos y de Relaciones Exteriores de México”. Datos completamente erróneos, pues el expresidente de la Corte nunca fue secretario de esas dependencias del gobierno mexicano.

Estos son solo dos ejemplos de información noticiosa sencilla que muestran que los resultados que arroja ChatGPT no son confiables, por lo que no pueden utilizarse en automático como si se tratara de un reporte verdadero.

Impactos en el aprendizaje

Puede argumentarse que ChatGPT es un modelo de lenguaje cuyo propósito primario es establecer conversaciones, por lo que no debe compararse con un buscador de internet. Esto es verdad, sin embargo, el problema es que los usuarios lo están utilizando como si se tratara de un motor de búsqueda avanzado.

De hecho, el mismo chat responde que puede servir, entre otras funciones, para la “generación de contenido para medios de comunicación (por ejemplo, generación de noticias, historias, etc.)”, lo cual -como ya vimos en los ejemplos- no es cierto.

Hay otros problemas que presenta la herramienta, destacándose el impacto negativo que puede tener en el aprendizaje, por lo que las Escuelas Públicas de Nueva York ya decidieron prohibir su uso entre los alumnos.

Este chatbot “puede proporcionar respuestas rápidas y fáciles a las preguntas” pero, al mismo tiempo, hace que no se desarrollen habilidades de pensamiento crítico y resolución de problemas, “que son esenciales para el éxito académico y de por vida”, consideró en un comunicado Jenna Lyle, subsecretaria de prensa de las instituciones educativas neoyorquinas.

Lo que más preocupa, agregó, son los temas que ya mencionamos: La seguridad y precisión del contenido de ChatGPT.

Virus, ataques y amenazas

Por otro lado, si así se le ordena, esta herramienta de Inteligencia Artificial es capaz de crear código informático para -por ejemplo- ser utilizado en el desarrollo de una página de internet. Pero también se le puede ordenar que proporcione código malicioso o malware. 

De acuerdo con un reporte de la firma Check Point Research (CPR), especializada en la investigación de amenazas cibernéticas, con ChatGPT “se hizo evidente que la generación de código puede ayudar a los actores menos calificados a lanzar ataques cibernéticos sin esfuerzo”.

El análisis de CPR apunta que, en las principales comunidades clandestinas de piratería, ya hay varios casos de ciberdelincuentes que usan OpenAI para desarrollar herramientas maliciosas. La advertencia, que se hizo pública el pasado 6 de enero, da cuenta de pruebas a las que ha sido sometido el chat, el cual ha llegado a realizar “con éxito un flujo de infección completo, desde la creación de un correo electrónico de phishing selectivo convincente”.

CPR añade que, como se sospechaba, “algunos de los casos mostraron claramente que muchos ciberdelincuentes que usan OpenAI no tienen ninguna habilidad de desarrollo”, por lo que el uso de esta herramienta para crear software malicioso ya no solo es una hipótesis.

autor Periodista y abogada, especialista en análisis jurídico y de derechos humanos. Ha sido reportera, conductora de radio y editora.
Comentarios