Buscador
Ver revista digital
Innovación

La humanidad no es capaz de controlar la inteligencia artificial, alertan investigadores

13-01-2021, 2:18:18 PM Por:
Inteligencia Artificial
© Reuters

Ciertas máquinas superinteligentes se han vuelto tan autónomas, que ni los programadores se explican cómo han aprendido a realizar algunas tareas importantes.

Los avances más recientes en materia de inteligencia artificial (IA) han planteado varios dilemas éticos. Quizá uno de los más importantes sea si la humanidad será capaz de controlar las máquinas autónomas.

Cada vez es más común ver robots encargados de tareas domésticas o vehículos autoconducidos que funcionan con IA. Si bien este tipo de tecnología nos facilita la vida, también podría complicarla.

Un grupo internacional de investigadores advirtió sobre los riesgos potenciales de crear software demasiado poderoso e independiente. Usando una serie de cálculos teóricos, los científicos exploraron cómo se podría mantener bajo control una inteligencia artificial. Su conclusión es que sería imposible, según señala el estudio publicado por el portal Journal of Artificial Intelligence Research.

“Una máquina superinteligente que controle el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores entiendan completamente cómo lo aprendieron […], situación que podría en algún momento convertirse en algo incontrolable y peligroso para la humanidad”, aseguró Manuel Cebrian, coautor del estudio, al Instituto Max Planck para el Desarrollo Humano.

Alternativas para controlar la IA

Los científicos experimentaron con dos formas para controlar la inteligencia artificial. Una fue aislarla de Internet y de otros dispositivos, limitando su contacto con el mundo exterior. El problema es que eso reduciría mucho su capacidad para realizar las funciones para las que fue creada.

La otra fue diseñar un “algoritmo de contención teórico” para garantizar que una inteligencia artificial “no pueda dañar a las personas bajo ninguna circunstancia”. Sin embargo, un análisis sobre el paradigma actual de computación mostró que no se puede crear tal algoritmo.

“Si descomponemos el problema en reglas básicas de informática teórica, resulta que un algoritmo que ordenara a una IA no destruir el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabríamos si el algoritmo de contención seguiría analizando la amenaza, o si se habría detenido para contener la IA dañina. En efecto, esto hace que el algoritmo de contención sea inutilizable”, explicó Iyad Rahwan, otro de los investigadores.

Según estos cálculos, el problema es que ningún algoritmo puede determinar si una IA produciría daño al mundo. Los investigadores también señalan que posiblemente la humanidad ni siquiera sepa cuándo han llegado las máquinas superinteligentes, porque decidir si un aparato posee una inteligencia superior a la de los humanos está en el mismo ámbito que el problema de contención.

inteligencia artificial robots autónomos Robots vs humanos
mm La revista líder en emprendimiento de México.
Suscríbete al Newsletter

Mantente actualizado con la mejor selección de noticias

revista

Revista Digital Alto Nivel

Enero 2021

Te recomendamos estos artículos de este mes:

Museo Kaluz se viste de gala
Museo Kaluz se viste de gala
México, riesgoso para la inversión y con 20 millones desempleados
México, riesgoso para la inversión y con 20 millones desempleados
La recuperación económica en 2021 será lenta y parcial
La recuperación económica en 2021 será lenta y parcial
COVID costó 7 billones de dólares a la economía global
COVID costó 7 billones de dólares a la economía global
Pequeño comercio: sin ganancias y a punto del cierre
Pequeño comercio: sin ganancias y a punto del cierre
Se intensifican tensiones sobre las instituciones financieras
Se intensifican tensiones sobre las instituciones financieras
Comentarios