Buscador
Ver revista digital
Tecnología

Así es la primera regulación a la Inteligencia Artificial que aprobó la UE

15-06-2023, 6:16:00 AM Por:
© Envato Elements

El Parlamento Europeo clasificó la IA en 4 niveles de riesgo, el más alto es inaceptable y estará absolutamente prohibido

Imagina que tus rasgos faciales son reproducidos mediante Inteligencia Artificial (IA) y superpuestos en un video en el que se capta a una persona cometiendo un delito, evidentemente esto no solo afectaría tu buena reputación, sino también tu libertad, lesionando de manera irreparable tus derechos humanos, lo mismo podría suceder si esta tecnología se usa para calificarte como un sujeto al que no se le puede dar un crédito, proporcionar un seguro de gastos médicos o ser contratado en un empleo.

Sí, es real la posibilidad de que se le den estos usos a la Inteligencia Artificial, por lo que no solo es necesario que existan estándares éticos en su aplicación, sino también leyes específicas que limiten y sancionen a las personas y empresas en caso de que exista una invasión a las esferas más íntimas y delicadas de los ciudadanos.

Por ello es de suma importancia considerar -como un ejemplo a seguir- la aprobación por parte del Parlamento Europeo de la Ley de Inteligencia Artificial, una norma que clasifica los distintos niveles de riesgo de la IA, y que será la base para pactar el texto definitivo que regulará este tema en la Unión Europea, después de que lo avalen la mayoría de sus 27 países miembros.

Según la misma Eurocámara, las reglas pretenden promover la adopción de una IA confiable, con el fin de “proteger la salud, la seguridad, los derechos fundamentales y la democracia, de sus efectos nocivos”.

Ni Black Mirror, ni Minority Report

La ley aprobada por el Parlamento Europeo clasifica de manera acertada a los sistemas de Inteligencia Artificial en cuatro categorías, incluyendo una a la que se le asigna un nivel de riesgo inaceptable, por lo que su prohibición es absoluta.

En este rubro están todos los sistemas de IA utilizados para clasificar a las personas en función de sus características personales o comportamientos; es decir, no se permitirá la puntuación social, como se muestra en un capítulo de la serie Black Mirror, ni los valores asignados -como etiqueta- a los ciudadanos, pues estos usos de la Inteligencia Artificial son discriminatorios.

Como ejemplo de este nivel máximo de riesgo están los sistemas de identificación biométrica remota, en tiempo real o de manera posterior, en espacios de acceso público, por lo que las imágenes de los rostros que toman las cámaras gubernamentales en las calles no deben alimentar a ninguna aplicación de IA.

No obstante, este tipo de identificaciones con Inteligencia Artificial sí se permitirá en la Unión Europea, siempre y cuando lo autorice previamente un juez, y solo en los casos en los que las autoridades competentes persigan y/o investiguen delitos graves, como lo puede ser el terrorismo.

A su vez, también se prohíben los sistemas de categorización biométrica en los que se usan características especialmente sensibles, como la raza, el género, el estado civil o migratorio, la religión o las preferencias políticas, así como los sistemas policiales que sean predictivos.

Ergo, las fuerzas del orden no podrán usar los perfiles de las personas o su comportamiento delictivo del pasado, para predecir su posible peligrosidad o para contar con datos de sujetos que la IA puede considerar potenciales delincuentes, tal y como ocurre -en la ficción- en el filme Minority Report, cuyo protagonista es Tom Cruise.

A las autoridades de las naciones integrantes del bloque europeo también se les proscribe el uso de la IA para el reconocimiento de emociones o para la gestión de las fronteras, así como la creación de bases de datos de reconocimiento facial a partir de la extracción de imágenes de internet, redes sociales, o secuencias de circuitos cerrados de televisión, pues esto viola el derecho humano a la privacidad.

Alto riesgo, con permiso y moderación

A su vez, la Inteligencia Artificial que el Parlamento Europeo considera como de alto riesgo incluye a todos los sistemas que potencialmente pueden dañar la seguridad, la salud, y los derechos fundamentales de las personas, además de aquellos que se utilicen para influir en los votantes y/o en el resultado de las elecciones.

Usar la IA para la selección de personal en los lugares de trabajo, o para aplicarla en dispositivos médicos o en servicios de salud, también entra en la categoría de alto riesgo, áreas que en Europa no estarán prohibidas, aunque deberán cumplir ciertos requisitos, y contar con el consentimiento previo de las personas.

Por ende, si una empresa aseguradora pretende usar la IA para evaluar a quien quiere adquirir una póliza de gastos médicos, deberá informarlo al potencial cliente, y este a su vez debe aceptar ese uso, de lo contrario la firma será sancionada, pues en estos casos igualmente se pueden presentar actos excluyentes y discriminatorios.

En este rubro hay que destacar que la regulación de la Inteligencia Artificial debe partir de una premisa fundamental, tal y como lo consideró el Parlamento Europeo: Si al aplicar la IA se influye, altera o modifica el proyecto de vida de una persona, necesariamente los Estados deben intervenir a través de nuevas normas que consideren todos estos supuestos.

Transparencia obligatoria

La tercera categoría de riesgo de la IA en la ley europea es aquella que es impersonal, como lo son los bots ylos sistemas de respuesta automática. Aquí, debido a que no necesariamente están en juego los derechos humanos de las personas, no existirán limitaciones, pero sí la obligación de las empresas de ser transparentes.

Por ende, si se usa esta tecnología para generar imágenes, los sistemas deberán especificarlo, advirtiendo que se trata de creaciones hechas con IA. Lo mismo se exigirá en materia de derechos de autor para todos los demás programas que generan contenido, como ChatGPT.

De lo que se trata es de evitar los plagios que lesionan a los creadores originales, entre los que se incluyen fotógrafos, escritores, periodistas y pintores, aunque en este punto aún hay un largo camino por recorrer en materia de regulación.

Si consideramos que -nacional e internacionalmente- los derechos de autor solo corresponden a los humanos, todos los textos e imágenes generados con la IA no pueden producir las prerrogativas típicas de la propiedad intelectual, como lo son la explotación o venta exclusiva.

Esto significa que un texto obtenido en ChatGPT, en Google Bard o Bloom, o en cualquier otro modelo de IA conversacional, no puede considerarse -en términos jurídicos- de la autoría de la persona que le dio la instrucción (prompt). Por eso se requiere que la transparencia sea obligatoria, para distinguir entre un producto hecho con Inteligencia Artificial, que no puede tener derechos de autor, de aquellos que sí poseen una autoría intelectual.

MÁS NOTICIAS:

autor Periodista y abogada, especialista en análisis jurídico y de derechos humanos. Ha sido reportera, conductora de radio y editora.
Comentarios