¿Por qué la carrera de la IA entre EU y China es tan importante como la bomba atómica?

China es el gran competidor de EE UU en desarrollar una súper inteligencia artificial. Quien lo logre primero, dominará el mundo.
Con la iniciativa Stargate de Estados Unidos para invertir cientos de miles de millones de dólares, y la aparición de la china DeepSeek, un modelo supuestamente más eficiente que sus competidores americanos, la carrera por la Inteligencia Artificial (IA) se acelera en 2025. Quien logre desarrollar una super inteligencia artificial puede cambiar al mundo como lo hizo la bomba atómica hace 80 años.
La comparación no es gratuita. La IA tiene la capacidad de mejorar la vida de las personas, así como de ser usada como un arma y herramienta de control social. La potencia que domine esta tecnología puede asegurarse la hegemonía global por décadas, o incluso más tiempo.
Deepseek, la plataforma china de Inteligencia Artificial Generativa (IAG) propiedad del millonario Liang Wenfeng, ya es el principal reto que debe superar el proyecto Stargate de Donald Trump, con el que el gobierno estadounidense se propuso dominar globalmente el avance de los Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés) a partir de una inversión del sector privado de 500,000 millones de dólares.
La irrupción de Deepseek, que la semana pasada propició la caída de las acciones de Nvidia, mostró que las empresas OpenAI, Arm, Microsoft y Oracle tienen un fuerte competidor en la carrera por conseguir una próxima súperInteligencia Artificial, emulando el duelo protagonizado por Estados Unidos en la Segunda Guerra Mundial para desarrollar la bomba atómica antes que la Alemania nazi.
Al demostrar que con mucho menos inversión es posible contar con una plataforma de IAG que es capaz de realizar profundos análisis que, hasta ahora, en occidente solo estaban disponibles mediante suscripciones de pago, Deepseek obligará a los consorcios estadounidenses a ajustar los precios de todos sus servicios de Inteligencia Artificial (IA).
Además, con Deepseek China está amenazando la hegemonía tecnológica de Estados Unidos en materia de IA, añadiendo un nuevo factor de tensión en las relaciones comerciales y diplomáticas del gigante asiático con la Unión Americana.
Carrera contra el tiempo
Tal y como ocurrió con el proyecto Manhattan que desarrolló la bomba atómica, o durante la carrera espacial de finales de los años cincuenta y la década de los sesenta del siglo pasado, Estados Unidos quiere dominar todos los aspectos de la IA antes que China, pues la innovación tecnológica es la principal fuente del poder económico y militar que persiguen ambas naciones.
De hecho, la integración de la IA en la industria armamentística mejorará los sistemas de defensa del país que lidere el desarrollo de esta tecnología, aumentando las capacidades de ese sector y, en consecuencia, reordenando el equilibrio geopolítico del mundo.
En lo económico, el país que en primer lugar consiga una súperInteligencia Artificial aumentará su competitividad globalmente, al contar con ventajas estratégicas sobre el resto de las naciones, debido a que los avances de esta tecnología incrementarán de manera significativa la productividad y la eficiencia operativa de los sectores en los que se aplique.
Un ejemplo de esto lo expresa el economista Leopold Aschenbrenner en su ensayo “Conciencia Situacional” (Situational Awareness), en el que adelanta que, cuando la Inteligencia Artificial supere a la del humano, lo cual podría ocurrir entre 2027 y 2030, se podrán generar en solo un año las mismas investigaciones científicas que antes tardaban décadas.
El problema es que -quien encabece todo este progreso- también dominará la soberanía digital de otras naciones, aumentando las desigualdades sociales y económicas de poblaciones enteras, las cuales también podrían ser objeto de un ejercicio abusivo del poder.
Humanidad en riesgo
En ese tenor, el proyecto Stargate ya plantea diversas preocupaciones no solo para la sociedad de Estados Unidos, sino también para la humanidad, por la posible integración de la IA en la industria de la energía nuclear.
Si llegara a presentarse una situación crítica en esta materia, aunque se ha dicho que habrá supervisión humana, la aplicación de la Inteligencia Artificial ya genera incertidumbre sobre la seguridad de todo el planeta.
De igual forma, cuando Donald Trump anunció esta iniciativa, durante su primera semana como presidente de Estados Unidos, también anuló la política de su antecesor, Joe Biden, quien en 2023 había ordenado un “desarrollo y uso seguro, y confiable” de la IA.
Mediante un decreto denominado “Eliminación de Barreras al Liderazgo Estadounidense en Inteligencia Artificial”, el mandatario anunció que su gestión tiene como objetivo “mantener y mejorar el dominio global de la IA”, con el fin de promover “el florecimiento humano, la competitividad económica y la seguridad nacional” de su país.
Para ello, a más tardar el próximo 21 de julio, varios funcionarios especializados en ciencia, tecnología e IA que asesoran a Trump, deberán entregarle un plan de acción de Inteligencia Artificialque demuestre que esta tecnología avanzará en Estados Unidos “libre de sesgos ideológicos o agendas sociales”.
Alinear los intereses de la IA con los de la humanidad
Otro riesgo importante señalado en el análisis de Leopold Aschenbrenner, es controlar -de manera confiable y efectiva- a la súperIA que tanto China como Estados Unidos quieren alcanzar.
Aschenbrenner, quien hasta la primavera de 2024 trabajaba en OpenAI, empresa creadora de ChatGPT, plantea que debe aplicarse una “superalineación” a la Inteligencia Artificial, para que su desarrollo esté de acuerdo con los valores humanos; de lo contrario, la humanidad no podrá dominar la seguridad y gobernanza de la IA.
En términos prácticos, se debe evitar que esta tecnología se utilice para el control social, y para que los Estados no se conviertan en dictaduras o en regímenes autoritarios que dominen a sus poblaciones aplicando la IA. De lo contrario, según Leopold Aschenbrenner, los errores y desviaciones de la Inteligencia Artificial que hoy son de bajo riesgo, podrían ser catastróficos.
En esencia, “nos enfrentamos a un problema de transferencia de confianza” porque al final de la explosión de inteligencia “no tendremos ninguna esperanza de entender lo que están haciendo nuestros mil millones de superinteligencias”, apunta Aschenbrenner.
Lo peor de todo, según este vaticinio, es que “aún no tenemos la capacidad técnica para garantizar, de manera confiable, ni siquiera restricciones secundarias básicas para estos sistemas”.
MÁS NOTICIAS:
- Carlos Slim, en conversaciones con Pemex para operar dos campos clave
- ¿Vas a comprar una casa? Conoce las obligaciones del vendedor, según Profeco
- Ahorro formal en México pasa de 21% a 30% en tres años
- ¿Cuáles son los requisitos para acceder al Mejoravit 2025 y qué novedades tiene el programa?
- Putin promete a Trump salvar la vida a soldados ucranianos que se entreguen en Kursk
