Buscador
Ver revista digital
Opinión

Qué legislar (y qué no) sobre la Inteligencia Artificial

06-06-2023, 6:00:00 AM Por:
© Depositphotos

Es estratégico para el país contar con una política específica de inteligencia artificial que se incorpore a la política digital nacional.

Por Julio Vega, director general de la Asociación de Internet MX

Pretender prohibir o detener la investigación en IA es como tratar de detener una estampida con señalamientos de ALTO. La reaparición y pronta proliferación de esta tecnología en todo el mundo dio la señal de un nuevo arranque a una carrera no sólo competitiva, sino francamente armamentista, en donde nadie puede darse el lujo de aflojar el paso. Uno de los riesgos principales ante el florecimiento de la IA es quedarse atrás. Es preciso partir de ahí.

Las aplicaciones de Inteligencia Artificial (IA) irrumpieron de forma inesperada en el panorama comercial global, acelerando los procesos políticos y legislativos que buscan una posición de gobiernos y leyes respecto de esta tecnología. ChatGPT, Bard, Copy.ai y YouChat entre otros muchos son sólo un aspecto de todo el potencial de la IA hacia el futuro, pero su cercanía y facilidad para ser aprovechados por todo el público llevó el concepto nuevamente a los horarios estelares. Hasta el menos interesado en tecnologías de la información podía ya ser usuario de aplicaciones de IA (incluso sin saberlo).

La nueva urgencia hizo concluir esfuerzos regulatorios que tienen varios años investigando el tema con nuevas oleadas de interesados, no pocos de ellos claramente del lado prohibicionista. Para coronarlo todo, el pasado 29 de marzo el multimillonario Elon Musk reunió a 100 firmantes para respaldar una petición pública para detener la investigación sobre IA por seis meses. “Los sistemas más potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, es la idea central de la declaratoria.

Suena bien, pero una postura más realista la tiene la Unión Europea, que busca legislar al respecto desde hace varios años, y que en diciembre de 2022 publicó una Ley de Inteligencia Artificial. Esta busca “crear un espacio seguro para la innovación en IA, que cumpla con un alto nivel de protección del interés público, la seguridad y los derechos y libertades fundamentales”.

La ley europea establece cuatro niveles de riesgo en los usos de la IA, de manera que el riesgo mínimo apenas tiene obligaciones ante la ley (aunque se recomienda un Código de Conducta), el riesgo limitado –que incluye chatbots, reconocimiento de emociones, deep fakes, categorización biométrica y suplantación de personalidad— está obligado a ser totalmente transparente, al grado de tener que abrir sus algoritmos a las autoridades. Todavía hay dos niveles más, en donde el último es considerado de “riesgo inaceptable” —calificación social, vigilancia masiva, manipulación del comportamiento— y queda prohibido.

Pero donde debe empezar la legislación mexicana es por la promoción. Es estratégico para el país contar con una política específica de inteligencia artificial que se incorpore a la política digital nacional, en donde las instituciones científicas y tecnológicas de carácter público o privado puedan investigar libremente y se pueda entrenar a más personas en estas tecnologías.

Claro, es preciso contar con un marco regulatorio que proteja los derechos humanos, garantice la no discriminación y la inclusividad en cualquiera de sus formas y también garantice la protección de datos personales y el derecho a la privacidad, entre otras muchas cosas, pero el peor riesgo para el país es quedarse atrás, es repetir la historia de consumo y no de creación.

La seguridad cibernética será uno de los temas más álgidos relacionados con la inteligencia artificial en el futuro. Basta imaginar un malware inteligente, capaz de cambiar y adaptarse a gran velocidad a las medidas de ciberseguridad. Qué tal sería pasar de actualizar el antivirus cada tres meses a tener que hacerlo cada cinco o 10 minutos. El Estado mexicano debe estar preparado para correr en esta carrera, pues de no hacerlo dependerá nuevamente de soluciones desarrolladas en el extranjero, sin capacidad para evaluar una determinada solución.

Igualmente, hay que estar preparados para evaluar y contrarrestar campañas de fake news o de deep fake que cundirán con aún más eficacia con el correr de los días. Los Estados en general no se han decidido a enfrentar directamente la manipulación de la opinión pública mediante el uso de bots en las redes sociales, y ahora deberán enfrentar la creación de tal vez millones de perfiles falsos, alimentados por una IA más capaz de fingir humanidad.

Está en cada sociedad el derecho a decidir si prohíbe el desarrollo de armas de guerra con IA, en donde un dron pueda tomar decisiones de vida o muerte. Igualmente, puede decidir agilizar su sistema judicial mediante algoritmos que den solución a los casos más frecuentes, en beneficio de una justicia más expedita.

Pero para ello es necesario acceder de lleno a este conocimiento, por lo que está en manos de los tres poderes de la Unión acercarse a quienes están generando desarrollos de IA, así como a quienes ya estudian sus efectos en todos los ámbitos de la sociedad.

Nota del editor: Este texto pertenece a nuestra sección de Opinión y refleja únicamente la visión del autor, no necesariamente el punto de vista de Alto Nivel.

MÁS NOTICIAS:

autor Equipo de jóvenes periodistas cuyo objetivo es explicar las noticias más relevantes de negocios, economía y finanzas. Nos apasiona contar historias y creemos en el periodismo ciudadano y de servicio.
Comentarios