IEEE. Armas nucleares e inteligencia artificial: un equilibrio entre la automatización y el factor humano

29 ene 2026
IEEE. Armas nucleares e inteligencia artificial: un equilibrio entre la automatización y el factor humano
Luciana Alejandra Rodríguez La Barrera. Estudiante del grado de Relaciones Internacionales en la Universidad de Navarra.
Introducción
La inteligencia artificial (IA) y las armas nucleares son, por separado, dos de los avances más notables e inquietantes de la humanidad. Una simboliza la cúspide de la innovación tecnológica; la otra, el abismo del potencial destructivo. Pero, ¿qué sucede cuando estas dos fuerzas convergen? La posibilidad de que sistemas autónomos tome decisiones en un contexto nuclear plantea preguntas éticas y estratégicas, poniendo en cuestión los principios fundamentales de la responsabilidad y estabilidad global.
Desde una perspectiva técnica, la inteligencia artificial abarca un amplio espectro de métodos orientados a replicar capacidades humanas, como el razonamiento, el aprendizaje y la toma de decisiones. Entre estos enfoques, el aprendizaje automático (machine learning) se distingue por utilizar algoritmos capaces de identificar patrones complejos y establecer relaciones significativas dentro de grandes volúmenes de información. A su vez, el aprendizaje profundo (deep learning) representa una evolución de esta técnica, al emplear redes neuronales artificiales que simulan la estructura y funcionamiento del cerebro humano mediante la interconexión de unidades llamadas neuronas artificiales.
Los avances tecnológicos de las últimas décadas han permitido escalar estas redes a niveles sin precedentes, con millones de neuronas artificiales operando simultáneamente en sistemas cada vez más complejos. Aunque estas redes distan aún de igualar la complejidad del cerebro humano, su capacidad para procesar datos de forma autónoma ha impulsado importantes progresos en el desarrollo de la IA moderna, consolidando su papel como tecnología estratégica con un potencial disruptivo en múltiples sectores, incluido el ámbito militar1.
La integración de la IA en el ámbito militar ha cobrado relevancia gracias a su habilidad para analizar datos masivos en tiempo real y mejorar la eficacia en la toma de decisiones dentro de contextos operativos exigentes y dinámicos. En particular, su aplicación en el sector de la seguridad y la defensa ha transformado las estrategias militares a través de la automatización de sistemas, la ciberseguridad y el reconocimiento de amenazas: por un lado, la automatización de sistemas permite optimizar el mando y control, reduciendo la intervención humana en decisiones estratégicas y favoreciendo el desarrollo de sistemas autónomos capaces de evaluar amenazas y ejecutar respuestas defensivas de manera independiente. Por otro lado, en el ámbito de la ciberseguridad, la IA desempeña un papel crucial en la protección de infraestructuras militares críticas, detectando y neutralizando ataques cibernéticos que podrían comprometer la seguridad de redes altamente sensibles, como las que controlan arsenales nucleares. Además, en lo que respecta al reconocimiento de amenazas, la inteligencia artificial ha sido utilizada en sistemas de vigilancia y alerta temprana, lo que permite identificar patrones de comportamiento que podrían indicar riesgos inminentes. A través del análisis de datos provenientes de satélites, radares y otras fuentes de inteligencia, estos sistemas contribuyen a anticipar los movimientos estratégicos de actores hostiles, redefiniendo así la manera en que los estados gestionan su seguridad.
En el contexto concreto de la disuasión nuclear, la IA ya ha sido integrada en diversas áreas relacionadas con la seguridad y la gestión de arsenales nucleares. Países como Estados Unidos y Rusia han desarrollado sistemas de alerta temprana impulsados por IA, los cuales monitorean amenazas potenciales y sugieren respuestas estratégicas en caso de un posible ataque nuclear2. Asimismo, la modernización de los arsenales nucleares ha incorporado avances en IA para mejorar la precisión y la capacidad de respuesta de los sistemas de misiles. Entre las aplicaciones más relevantes se encuentran la optimización en la guía de misiles balísticos, el desarrollo de sistemas de defensa avanzados para la detección e interceptación de amenazas y la integración de algoritmos en sistemas de mando y control que permiten analizar patrones de comportamiento y predecir escenarios de conflicto3.
Si bien estas innovaciones pueden fortalecer la disuasión nuclear y reducir la probabilidad de ataques preventivos, también podrían incentivar una nueva carrera armamentista basada en la superioridad tecnológica. La posibilidad de que sistemas autónomos participen en la toma de decisiones nucleares genera preocupaciones sobre la confiabilidad de los algoritmos, el riesgo de fallos técnicos y la vulnerabilidad ante ciberataques4.
Este documento de opinión analiza de manera estructurada la interacción entre la inteligencia artificial y el ámbito nuclear, evaluando sus implicaciones para la seguridad internacional. En primer lugar, se examina la relación entre ambas tecnologías y los desafíos éticos y estratégicos que plantea su convergencia. A continuación, se abordan tanto los riesgos asociados a la pérdida del control humano en decisiones críticas como los beneficios potenciales de la IA en la prevención de crisis nucleares. Finalmente, se considera la necesidad urgente de adaptar los marcos regulatorios internacionales para garantizar un uso responsable y seguro de la IA en contextos nucleares.
La relación entre las armas nucleares y la IA
Los avances en inteligencia artificial han sido comparados con el desarrollo de las armas nucleares debido a su doble potencial: por un lado, su capacidad de generar progreso en distintos ámbitos; por otro, su amenaza para la seguridad global. Figuras públicas como Elon Musk han advertido sobre los peligros de la IA, señalando que podría representar un riesgo aún mayor que las armas nucleares. En la misma línea, el Secretario General de la ONU, António Guterres, ha propuesto la creación de una agencia internacional similar a la Organización Internacional de la Energía Atómica (OIEA) para regular el desarrollo y uso seguro de la IA5.
Con carácter general, el acceso y el desarrollo de las armas nucleares están restringidos por la disponibilidad de materiales fisibles como el uranio y el plutonio. La IA, en cambio, depende de insumos tecnológicos más accesibles, como chips avanzados y unidades de procesamiento gráfico (GPUs6). Esta diferencia plantea un desafío significativo en términos de regulación, ya que, mientras la proliferación nuclear ha sido objeto de tratados internacionales, el desarrollo de la IA es descentralizado y está impulsado tanto por gobiernos como por actores privados.
Otro aspecto distintivo, aunque también compartido, radica en la dualidad de sus aplicaciones. Tanto las armas nucleares como la inteligencia artificial presentan características de doble uso: pueden emplearse con fines pacíficos o militares. En el caso de las armas nucleares, sus componentes pueden tener aplicaciones civiles, por ejemplo, en la generación de energía o la medicina, y por ello están sujetos a estrictos regímenes de control. Por su parte, la inteligencia artificial, como tecnología de uso general, plantea desafíos particulares para la delimitación entre usos civiles y militares. Un sistema de IA desarrollado para la investigación farmacéutica, por ejemplo, también podría ser empleado en la creación de armas biológicas o neurotóxicas, lo que evidencia su potencial de uso dual y la complejidad que esto conlleva para su regulación.
El carácter de doble uso de la inteligencia artificial no solo reside en su aplicabilidad civil y militar, sino también en su inherente ambigüedad funcional. A diferencia de otras tecnologías armamentísticas claramente delimitadas, como los misiles balísticos o los submarinos nucleares, los algoritmos de IA pueden ser integrados de forma casi invisible en una amplia gama de sistemas. Esta flexibilidad funcional implica que una misma arquitectura de IA pueda servir tanto para fines benéficos como para fines letales, como la guía de misiles, la vigilancia masiva o incluso la toma autónoma de decisiones en sistemas de armas letales.
La naturaleza dual de la IA también plantea dilemas éticos y legales, particularmente en cuanto a la responsabilidad de su uso. En un escenario hipotético donde un sistema autónomo, desarrollado para vigilancia fronteriza, decide neutralizar una amenaza percibida con consecuencias letales, surge la pregunta: ¿quién es responsable? ¿El desarrollador, el programador, el gobierno o la máquina misma? La difícil trazabilidad en la toma de decisiones pone en entredicho las normas fundamentales del derecho internacional humanitario, y en contextos nucleares, puede tener consecuencias catastróficas.
Esta situación evidencia el carácter de doble uso de la inteligencia artificial: una misma tecnología capaz de mejorar procesos logísticos o de defensa también puede ser adaptada para intervenir en decisiones críticas vinculadas al uso de armamento nuclear, lo que incrementa significativamente el riesgo de errores con consecuencias potencialmente catastróficas. Las aplicaciones de la IA pueden oscilar entre fines constructivos y destructivos, dependiendo tanto del contexto como de los intereses estratégicos que orienten su implementación. En este marco, surge un debate relevante en torno a la capacidad de los marcos regulatorios existentes para abordar adecuadamente este tipo de tecnologías.
A modo de ejemplo, la reciente Ley de Inteligencia Artificial de la Unión Europea, aprobada el 13 de marzo de 20247, establece un sistema de clasificación del riesgo asociado a los sistemas de IA, dividiéndolos en cuatro categorías: mínimo, limitado, alto e inaceptable. No obstante, esta legislación ha generado interrogantes sobre su aplicabilidad a tecnologías de doble uso, es decir, aquellas que pueden emplearse tanto con fines civiles como militares. Aunque la ley excluye explícitamente los productos exclusivamente militares, no queda del todo claro si esa exclusión se extiende también a sistemas que, pese a desarrollarse con fines civiles, pueden ser adaptadas a contextos estratégicos como el control de sistemas nucleares. La ausencia de criterios jurídicos claros al respecto deja un vacío que podría debilitar los esfuerzos regulatorios frente a una tecnología que, en manos equivocadas o bajo presiones geopolíticas, puede tener consecuencias desestabilizadoras8.
| INTELIGENCIA ARTIFICIAL | ARMAS NUCLEARES | |
|---|---|---|
| DIFERENCIAS | Es de propósito general. | Son de propósito específico (destrucción masiva). |
| Regulación reciente y parcial. | Regulación internacional más generalizada y consolidada. | |
| Está descentralizada. | Son centralizadas y controladas por los gobiernos. | |
| SIMILITUDES | Ambas presentan riesgos catastróficos. | |
| Ambas son de doble uso. | ||
| Ambas son tecnologías de rápida evolución. | ||
| Ambas pueden tener impacto global. | ||
Tabla: Elaboración propia basado en Goudarzi, S. “AI and the A-bomb: What the analogy captures and misses - Bulletin of the Atomic Scientists”. Bulletin Of The Atomic Scientists, 2024, disponible en: https://thebulletin.org/2024/09/ai-and-the-a-bomb-what-the-analogy-captures-and-misses/
Ante este panorama, surge una pregunta fundamental: ¿puede la inteligencia artificial acelerar el desarrollo de armas nucleares y aumentar los riesgos globales? Mientras algunos expertos sostienen que la IA puede contribuir a una mayor estabilidad al reducir el margen de error humano, otros advierten que la dependencia de sistemas automatizados podría incrementar la probabilidad de errores catastróficos y una escalada descontrolada de conflictos.
Tecnologías diferentes; ¿una misma amenaza?
Durante décadas, el control de las armas nucleares ha dependido de la capacidad humana para evaluar riesgos, interpretar señales y tomar decisiones bajo presión. La incorporación de inteligencia artificial en este ámbito transforma este paradigma, no sólo al introducir nuevas herramientas tecnológicas, sino al alterar quién, o qué, participa en los procesos decisivos. Ya no se trata únicamente de qué tan poderosa es una tecnología, sino de cómo su lógica de funcionamiento podría reemplazar el juicio político y estratégico que históricamente ha guiado la disuasión nuclear desde la Guerra Fría9.
Este dilema ha encendido una alarma entre expertos en seguridad internacional, quienes consideran que la integración de la IA en operaciones militares puede alterar significativamente la naturaleza de los conflictos armados. Como advierten Horowitz y Scharre10, la automatización en contextos nucleares plantea una amenaza silenciosa: la posibilidad de que algoritmos actúen por sí solos, genera ambigüedad sobre las intenciones reales, aumentando así el riesgo de escaladas no intencionadas. En ese sentido, la IA y las armas nucleares, aunque diferentes en naturaleza, pueden converger en una amenaza común al introducir incertidumbre y pérdida de control humano en decisiones críticas.
Potenciales riesgos de la IA en el desarrollo nuclear: ¿pérdida del factor humano?
El avance de la IA en el ámbito militar ha generado un impacto significativo en la modernización y optimización de los sistemas nucleares. En particular, su integración en la planificación estratégica y el desarrollo de armas nucleares plantea desafíos en términos de estabilidad global, control de armamentos y riesgos asociados a errores de cálculo o decisiones automatizadas.
Uno de los principales efectos de la IA en la carrera armamentista es la aceleración en el desarrollo de tecnología nuclear. Gracias a su capacidad para optimizar procesos, analizar gran cantidad de información y mejorar la toma de decisiones estratégicas, la IA permite a los estados mejorar la precisión y eficiencia de sus sistemas nucleares. No obstante, el uso de IA en el ámbito nuclear conlleva serios riesgos.
En primer lugar, la posibilidad de errores de cálculo se incrementa cuando los sistemas de IA interpretan erróneamente maniobras militares convencionales como amenazas inminentes. Esta falta de fiabilidad podría llevar a una escalada no intencionada de conflictos, especialmente si un sistema automatizado emite alertas falsas o recomienda respuestas militares desproporcionadas. En segundo lugar, la integración de IA en arsenales nucleares se enfrenta a desafíos técnicos y estratégicos. La vulnerabilidad de estos sistemas ante ataques cibernéticos plantea una amenaza adicional, ya que actores malintencionados podrían manipular datos de entrenamiento o intervenir en tiempo real para alterar decisiones militares. Además, la compatibilidad con infraestructuras militares heredadas y la disponibilidad de datos clasificados limitan la eficacia operativa de la IA en este ámbito.
A pesar de estos obstáculos, diversas potencias han avanzado en la automatización de sus sistemas nucleares: Rusia ha desarrollado el dron submarino Poseidón, capaz de operar de manera autónoma; Corea del Norte ha promovido la integración de IA en torpedos y drones nucleares; y Estados Unidos está en proceso de fabricación del bombardero estratégico B-21 Raider, diseñado para operar tanto de manera tripulada como autónoma11.
Uno de los debates más controvertidos en la intersección entre la IA y las armas nucleares es la delegación de la toma de decisiones estratégicas a sistemas automatizados. Tradicionalmente, estas decisiones han estado bajo el control exclusivo de líderes políticos y asesores militares de alto nivel. Sin embargo, el desarrollo de sistemas autónomos capaces de evaluar amenazas y sugerir represalias ha suscitado preocupaciones éticas y estratégicas. La cuestión central radica en si la inteligencia artificial puede mejorar la estabilidad global al reducir el margen de error humano o, por el contrario, si incrementa el riesgo de una guerra nuclear accidental debido a su dependencia de datos que podrían ser erróneos o manipulados.
Este dilema adquiere mayor relevancia al considerar que la IA también está siendo utilizada en ciberseguridad para proteger infraestructuras militares críticas. No obstante, dado que las armas nucleares dependen de redes altamente seguras, la sofisticación de los ciberataques podría comprometer la integridad de estos sistemas, aumentando la posibilidad de errores catastróficos.
Otro aspecto crítico en la creciente automatización en el ámbito nuclear es el riesgo de reducir la supervisión humana en decisiones estratégicas12, lo que podría comprometer la estabilidad global. A medida que los sistemas de inteligencia artificial asumen funciones clave en la detección de amenazas y la toma de decisiones militares, existe la posibilidad de que los seres humanos confíen excesivamente en estos sistemas, un fenómeno conocido como sesgo de automatización13. Esta tendencia, observada en sectores como la conducción autónoma, podría trasladarse al ámbito nuclear, donde una interpretación errónea de datos podría desencadenar una escalada militar sin una previa evaluación contextual adecuada.
Los modelos de IA, al ser entrenados con datos históricos, pueden reproducir y amplificar prejuicios humanos. En el contexto nuclear, esto podría traducirse en una sobrestimación de amenazas provenientes de ciertos países o grupos, influyendo en la toma de decisiones de manera potencialmente peligrosa. Ejemplos previos en el sector privado, como el sistema de selección de personal de Amazon que discriminaba a candidatas mujeres debido a datos sesgados14, evidencian cómo la IA puede generar resultados indeseados. En el ámbito militar, un sistema de alerta temprana basado en IA podría clasificar automáticamente a determinados países como amenazas sin considerar el contexto geopolítico, aumentando así el riesgo de respuestas desproporcionadas o escaladas innecesarias.
Si bien la automatización puede mejorar la velocidad y precisión en la detección de amenazas, los sistemas autónomos carecen de la capacidad de interpretar situaciones con una comprensión holística. La toma de decisiones en escenarios de crisis requiere juicio humano, dado que los algoritmos operan en función de patrones preestablecidos sin considerar factores políticos, estratégicos o psicológicos que solo los humanos pueden evaluar15.
Potenciales beneficios: la IA como herramienta de prevención de crisis
A pesar de los riesgos, la IA también puede ser utilizada como una herramienta beneficiosa para la prevención de crisis nucleares, pues ofrece importantes aplicaciones para la mitigación de riesgos. Gracias a su velocidad y precisión, los sistemas de IA pueden apoyar procesos de toma de decisiones estratégicas en tiempo real, especialmente en contextos donde los errores humanos o los malentendidos pueden desencadenar consecuencias catastróficas.
Una de las capacidades más prometedoras de la IA en el ámbito nuclear es su habilidad para analizar grandes volúmenes de datos provenientes de distintas fuentes: imágenes satelitales, sensores de radiación, redes de vigilancia y bases de datos de inteligencia. La automatización del análisis permite detectar patrones irregulares, movimientos sospechosos o cambios físicos en instalaciones nucleares con una velocidad y precisión superiores a las de los métodos tradicionales. Su capacidad para procesar enormes flujos de datos y detectar comportamientos irregulares puede mejorar la transparencia y los mecanismos de verificación relacionados con armas de destrucción masiva (ADM), lo que ayuda a reducir los riesgos de proliferación y uso de tales armas16.
A modo de ejemplo, la IA puede ser empleada para realizar simulaciones avanzadas que modelan potenciales escenarios de conflicto nuclear, evaluando distintas variables como despliegues militares, alertas tempranas y movimientos estratégicos de actores estatales o no estatales. Estas simulaciones permiten a los responsables políticos diseñar respuestas más racionales y menos impulsivas en situaciones de alta tensión. De igual manera, la IA optimiza la toma de decisiones en situaciones críticas, como se ilustra en el caso del Comando Estratégico de Estados Unidos17, que explora su uso para identificar las rutas de comunicación más eficientes para las órdenes nucleares, lo que contribuye a una respuesta más efectiva ante amenazas.
Algunas Organizaciones Internacionales, como el OIEA, han comenzado a explorar el uso de inteligencia artificial para procesar datos provenientes de sensores remotos, mejorando así los sistemas de verificación de cumplimiento de tratados de no proliferación18. Por ejemplo, algoritmos de aprendizaje automático pueden identificar cambios en la infraestructura de una planta nuclear que podrían sugerir una desviación hacia fines no pacíficos. De esta manera, la IA actúa como una aliada clave para aumentar la transparencia y fortalecer los mecanismos multilaterales de verificación.
La IA también juega un papel crucial en la protección contra ciberataques19, ayudando a reforzar las defensas cibernéticas al identificar actividades sospechosas y responder rápidamente a posibles incidentes. Sistemas basados en IA como los que implementan técnicas como el machine learning pueden aprender patrones normales de tráfico de red y detectar desviaciones que podrían indicar un ataque. Esta capacidad resulta vital, ya que muchos ciberataques se producen de forma encubierta y progresiva, como lo demostró el ataque Stuxnet en 201020. Aunque no fue un ejemplo directo de IA, casos como este subrayan la necesidad de proteger sistemas críticos mediante tecnologías avanzadas de detección y respuesta.
Equilibrio entre automatización y prevención humana
Una vez analizados los riesgos y oportunidades de la integración de la IA en el ámbito nuclear cabe preguntarse, ¿cómo garantizar un equilibrio adecuado entre la automatización y la intervención humana? Para lograr esto, es importante garantizar que los sistemas de IA actúen como herramientas de asistencia, y no como sustitutos del juicio humano, especialmente en situaciones de alta presión, como las relacionadas con armas nucleares. Parece entonces esencial mantener la presencia humana en el proceso de toma de decisiones, particularmente en lo que respecta al lanzamiento de armas nucleares. Las decisiones críticas deben ser verificadas y validadas por múltiples instancias humanas para reducir la posibilidad de respuestas automáticas erróneas. Esta medida garantiza que cualquier acción de este tipo sea el resultado de un análisis humano cuidadoso, evitando respuestas precipitadas o equívocas.
Otro aspecto clave es la implementación de protocolos de seguridad robustos para proteger los sistemas de IA contra fallos y ciberataques. La protección de los sistemas nucleares frente a manipulaciones externas es esencial para garantizar la integridad de los procesos de decisión y para minimizar el impacto de posibles errores técnicos. Estos protocolos deben incluir medidas preventivas que garanticen la continuidad de la supervisión humana, incluso en circunstancias extremas21.
El trabajo conjunto de la IA y el ser humano también puede ser de gran ayuda en la verificación y evaluación de amenazas. Al integrar sistemas de IA en el proceso de validación de datos antes de tomar decisiones críticas, los operadores humanos pueden asegurarse de que la información es correcta y precisa, lo que reduce el riesgo de errores. Además, la IA puede utilizarse para realizar simulaciones de posibles escenarios, lo que ayuda a los responsables de la toma de decisiones a comprender las implicaciones de diferentes cursos de acción. Sin embargo, la decisión final debe recaer siempre en las personas, quienes pueden considerar factores políticos y diplomáticos que, sin embargo, una máquina no podría evaluar.
Por lo tanto, la clave para un uso adecuado de la inteligencia artificial en el ámbito nuclear radica en encontrar un equilibrio entre la automatización y la supervisión humana. Esto garantiza que las decisiones críticas sean tomadas con una comprensión completa del contexto y las implicaciones de las mismas. La integración de IA con protocolos de supervisión humana y medidas de seguridad robustas puede mejorar significativamente la capacidad de respuesta ante amenazas nucleares, sin comprometer la seguridad ni la estabilidad global.
¿Hacia una necesaria regulación internacional?
Si bien la comunidad internacional ha desarrollado instrumentos jurídicos en torno a la no proliferación de las armas nucleares, la irrupción de tecnologías emergentes como la inteligencia artificial exige una revisión profunda de estos mecanismos. En efecto, como ya se ha discutido anteriormente, el uso potencial de la IA en las tomas de decisiones estratégicas y en el funcionamiento autónomo de sistemas nucleares incrementa la complejidad del escenario global, pues introduce variables de riesgo difíciles de prever, verificar y controlar. Así, se impone la necesidad de reflexionar sobre cómo adaptar los marcos regulatorios actuales para evitar que esta tecnológica erosione la estabilidad internacional.
En esta línea, Lamberth y Scharre subrayan que los principales obstáculos para regular la IA giran en torno a su carácter dual (civil y militar), su rápida evolución y la dificultad de verificación entre sistemas con y sin IA22. Este enfoque refuerza la urgencia de establecer normas internacionales específicas y diseñar nuevas herramientas jurídicas que aseguren la supervisión humana y el cumplimiento de estándares éticos y estratégicos comunes basados en la cooperación entre Estados.
Marco jurídico actual relevante para la no proliferación nuclear
El marco jurídico internacional que regula las armas nucleares es esencial para garantizar la estabilidad y seguridad globales. Instituciones clave como la Organización de las Naciones Unidas (ONU), el OIEA y diversos acuerdos internacionales desempeñan un papel fundamental en la promoción de la no proliferación nuclear y el desarme, contribuyendo al mantenimiento de un orden internacional seguro y estable.
La ONU ha sido un actor central en la formulación de políticas y la adopción de resoluciones orientadas a prevenir la proliferación de ADM. En este contexto, la Resolución 1540 (2004) del Consejo de Seguridad exige a los Estados Miembros que implementen medidas estrictas para evitar que actores no estatales adquieran armas nucleares, químicas o biológicas23. Esta resolución refuerza el control sobre materiales sensibles y sistemas de entrega, un paso crucial para asegurar que los materiales nucleares no caigan en manos equivocadas. Además, la Resolución 1887 (2009) del Consejo de Seguridad, entre otras, reafirma el compromiso de los Estados Parte con el Tratado sobre la No Proliferación de las Armas Nucleares (TNP), promoviendo un mundo sin armas nucleares y subrayando la importancia de la estabilidad internacional y la seguridad para la comunidad internacional.
El OIEA, creado en 1957 como una agencia autónoma dentro del sistema de la ONU, desempeña un papel vital en la promoción del uso pacífico de la energía nuclear. Su misión principal incluye prevenir el uso de la energía nuclear con fines militares. Para ello, el OIEA implementa salvaguardias que verifican que los materiales nucleares no sean desviados hacia el desarrollo de armas nucleares. Además, realiza inspecciones regulares en instalaciones nucleares y proporciona asistencia técnica a los Estados Miembros para garantizar la seguridad y protección en el uso de la energía nuclear, contribuyendo de manera significativa al fortalecimiento del régimen de no proliferación.
Aparte del TNP, existen diversos acuerdos internacionales que complementan los esfuerzos globales para prevenir la proliferación nuclear. Por ejemplo, el Tratado de Rarotonga (1985) establece una Zona Libre de Armas Nucleares en el Pacífico Sur, prohibiendo la posesión, el uso y las pruebas de armas nucleares en la región24. De manera similar, el Tratado de Bangkok (1995) crea una Zona Libre de Armas Nucleares en el Sudeste Asiático, contribuyendo a la paz y la estabilidad regionales. En África, el Tratado de Pelindaba (1996) establece una Zona Libre de Armas Nucleares, prohibiendo la investigación, desarrollo, fabricación y posesión de armas nucleares en el continente. También, el Tratado de Semipalatinsk (2006) crea una Zona Libre de Armas Nucleares en Asia Central, promoviendo la cooperación regional en el uso pacífico de la energía nuclear y reforzando el régimen de no proliferación.
Mientras que el objetivo esencial del TNP es evitar la proliferación horizontal de las armas nucleares, existen otros tratados de limitación de armamentos, como el Nuevo Tratado START25, que establece límites verificables a la cantidad de ojivas nucleares desplegadas y a los sistemas de lanzamiento estratégicos en Estados Unidos y en Rusia además de fomentar medidas de transparencia y confianza mutua entre ambos países. Este tratado bilateral, no obstante, quedó paralizado en febrero de 2023, cuando Vladimir Putin anunció la suspensión en la participación de Rusia26.
Cabe también destacar el Tratado de Prohibición Completa de los Ensayos Nucleares (TPCE), adoptado en 1996, que prohíbe todos los ensayos nucleares, tanto con fines militares como civiles, con el objetivo de detener el desarrollo cualitativo de las armas nucleares y reforzar el compromiso hacia el desarme. Aunque ha sido firmado por una gran cantidad de Estados, todavía no ha entrado en vigor, pues precisa de la ratificación de ciertos Estados clave para alcanzar los objetivos de desarme. A pesar de que su implementación definitiva está en suspenso, el TPCE representa un pilar fundamental del régimen internacional de no proliferación nuclear, y requiere de continuos esfuerzos por parte de la comunidad internacional.
En este contexto, cabe también mencionar el Tratado sobre la Prohibición de las Armas Nucleares (TPAN), adoptado en 2017 y en vigor desde enero de 2021. Este tratado busca la eliminación total de las armas nucleares, prohibiendo su desarrollo, posesión, uso y amenaza de uso, así como la transferencia o el apoyo a estas actividades.27 Hasta septiembre de 2024, lo han ratificado 73 Estados, principalmente del Sur Global. Aunque ningún Estado poseedor de armas nucleares ni miembro de alianzas nucleares como la OTAN ha suscrito el tratado, este instrumento ha consolidado un valor normativo y político creciente, ejerciendo presión diplomática y estigmatizando el uso y posesión de este tipo de armamento.
La progresiva adaptación normativa a los desafíos de la IA
A pesar de los esfuerzos internacionales para prevenir la proliferación nuclear, persisten desafíos significativos. Recientemente, Rusia ha expresado su firme oposición a la posibilidad de que Alemania desarrolle un arsenal nuclear.28 También cabe recordar que en 2023, Vladimir Putin revocó su ratificación del TPCE, retirando su compromiso formal a no realizar pruebas nucleares, lo que generó preocupación internacional sobre una posible reactivación de ensayos atómicos y el debilitamiento del régimen global de no proliferación29. Además, el presidente francés Emmanuel Macron sugirió reforzar la soberanía e independencia de la defensa militar francesa, ofreciendo la capacidad disuasoria nuclear de Francia como un “paraguas” para la Unión Europea. Esta propuesta, que busca garantizar la seguridad frente a amenazas externas, genera debates sobre las implicaciones que tendría para el régimen de no proliferación nuclear30. A este complejo contexto internacional en el ámbito nuclear, se añade la amenaza que plantea el desarrollo tecnológico, y en concreto, la implicación de la IA para la proliferación nuclear.
Cabe destacar alguna iniciativa interesante para abordar esta situación de incertidumbre, como la reciente declaración emitida por el gobierno de Estados Unidos sobre el uso responsable de la IA en el ámbito militar31. Esta declaración refleja el intento de EEUU por establecer una serie de principios éticos que guíen el desarrollo y el uso de tecnologías emergentes en contextos bélicos, buscando así minimizar los riesgos asociados y fomentar un marco de responsabilidad internacional.
Frente a este contexto internacional, el Ministerio de Defensa de España ha llevado a cabo iniciativas estratégicas orientadas al uso ético y seguro de la inteligencia artificial en el ámbito militar. Entre las más destacadas se encuentra la Estrategia de Desarrollo, Implantación y Uso de la IA, alineada con los principios de la OTAN y la Unión Europea, que contempla aplicaciones en campos como la movilidad, la ciberdefensa, la autonomía de sistemas no tripulados y la guerra electrónica32. España también cuenta con la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), y ha participado activamente en foros multilaterales sobre el uso responsable de la inteligencia artificial en la defensa, como la Cumbre REAIM 2024, donde respaldó la necesidad de establecer normas comunes para el empleo de la IA en operaciones militares33. Esta implicación institucional refuerza el compromiso de España con el desarrollo responsable de tecnologías emergentes y la necesidad de garantizar siempre la supervisión humana en los procesos decisionales estratégicos.
Teniendo en cuenta los complejos desafíos que presenta la IA para la seguridad internacional, es imperativo que la comunidad internacional aborde estos problemas a través de una regulación específica que limite el uso de la IA, promoviendo la estabilidad estratégica y la seguridad global. Aunque existe ya alguna norma internacional al respecto, como el Reglamento Europeo de Inteligencia Artificial, y algunas iniciativas para su uso responsable, estos no abordan de manera específica las implicaciones de su integración en sistemas nucleares. Por lo tanto, cabe plantear la necesidad de crear un acuerdo internacional que contemple aspectos clave como la prohibición explícita del uso de IA autónoma en decisiones nucleares, el establecimiento de requisitos de supervisión humana en todas las etapas del proceso y la implementación de mecanismos de cumplimiento, acompañados de sanciones en caso de infracción. Estas medidas no sólo reducirían el riesgo de errores catastróficos, sino que también fomentaría un uso responsable y ético de la IA en un ámbito tan sensible como el nuclear.
La necesaria cooperación internacional
Con el objetivo último de evitar la proliferación nuclear, tanto vertical como horizontal, fomentada por el desarrollo tecnológico y por las aplicaciones de la IA, parece indispensable recurrir a la cooperación internacional basada en la modernización de las instituciones globales y el fortalecimiento del marco normativo existente. En este sentido, es fundamental que organismos internacionales relevantes como la ONU y el OIEA asuman un papel activo en la supervisión y regulación de tecnologías emergentes como la IA, teniendo en cuenta sus aplicaciones al ámbito nuclear. Esto incluiría el refuerzo de sus capacidades para hacer frente a nuevas amenazas tecnológicas, pero también el impulso de mecanismos que promuevan la transparencia y el desarme nuclear, elementos esenciales para evitar una nueva carrera armamentística.
Un aspecto objeto de debate es la necesidad de reforzar el régimen internacional de control de las armas nucleares, particularmente el TNP, y adaptarlo a los avances tecnológicos34. En este panorama, sería necesario establecer normas o, al menos, guías de actuación, que limiten la automatización de decisiones nucleares, garantizando que siempre haya un control humano efectivo en el proceso de toma de decisiones. Por otro lado, aunque el Tratado sobre la Prohibición de las Armas Nucleares aún no ha sido adoptado por ningún Estado poseedor de armas nucleares, su progresiva universalización podría contribuir a fortalecer el compromiso internacional con el desarme y ofrecer un marco de referencia útil para abordar los nuevos desafíos que plantean tecnologías emergentes como la inteligencia artificial. No obstante, para que dicho tratado tenga un impacto efectivo en este ámbito, sería necesario promover su aceptación más amplia y actualizar sus disposiciones a la luz de estos desarrollos tecnológicos.
La cooperación internacional también debe centrarse en el desarrollo de nuevos acuerdos multilaterales que aborden las tecnologías emergentes. Estos acuerdos podrían establecer cláusulas específicas sobre la transparencia en el desarrollo y la implementación de tecnologías nucleares basadas en IA, limitando su expansión. Las relaciones diplomáticas entre los actores nucleares deben ser fundamentales en este proceso, especialmente en regiones políticamente inestables. Pero, además, la colaboración entre órganos y organismos internacionales –como la ONU, el Consejo de Seguridad de las Naciones Unidas y el OIEA– será esencial para crear acuerdos que limiten el acceso a estas tecnologías y fomenten la confianza mutua entre los países
Conclusiones
A lo largo de este análisis, se ha considerado el papel dual de la IA como una amenaza en el ámbito nuclear, y una oportunidad para mejorar la seguridad estratégica. Aunque existen limitaciones significativas en cuanto a la transparencia y fiabilidad de las tecnologías de IA desarrolladas por los Estados con armas nucleares, su integración en el espectro militar, especialmente en áreas como la inteligencia, vigilancia y reconocimiento (ISR)35, así como en la defensa antimisiles y la guerra antisubmarina, es una realidad cada vez más presente.
La IA ofrece una serie de oportunidades, como la capacidad para procesar grandes volúmenes de datos en tiempo real y detectar patrones complejos; permite, por ejemplo, la implementación de sistemas avanzados de detección y alerta temprana, que podrían identificar amenazas antes de que se materialicen. En el campo de la ciberseguridad, la IA tiene el potencial de anticipar y mitigar ataques a infraestructuras nucleares críticas, como las plantas de energía. Además, al optimizar la gestión de recursos estratégicos, la IA podría mejorar la eficiencia de las operaciones nucleares, reduciendo la probabilidad de errores humanos en la toma de decisiones y fortaleciendo las defensas ante amenazas externas.
No obstante, la implementación de IA en sistemas nucleares también plantea riesgos significativos que deben ser cuidadosamente gestionados. La automatización excesiva de estos sistemas podría incrementar el riesgo de errores catastróficos, ya que los algoritmos defectuosos o mal diseñados podrían interpretar erróneamente una amenaza, desencadenando respuestas desproporcionadas. La falta de supervisión humana en decisiones críticas podría, asimismo, facilitar una escalada de conflictos, aumentando la probabilidad de respuestas militares impulsivas. Además, la vulnerabilidad de los sistemas de IA a los ciberataques representa otro riesgo, ya que podrían manipularse para provocar fallos en la seguridad nuclear y poner en peligro la estabilidad global.
Es por ello que resulta imperativo aprovechar las ventajas de la IA sin comprometer el control humano en decisiones críticas. Un enfoque equilibrado requiere la integración cuidadosa de sistemas de IA en sectores especialmente sensibles, como es el caso del armamento y tecnología nucleares. Esto no implica desestimar el potencial de la IA, sino aprovecharlo dentro de marcos normativos establecidos, asegurando que la responsabilidad final recaiga siempre en los seres humanos. Esto incluye el desarrollo de marcos regulatorios sólidos que establezcan límites al uso autónomo de la IA. La colaboración entre estados, organismos internacionales y expertos en tecnología, ética y políticas públicas es esencial para diseñar sistemas que combinen la potencia algorítmica con la prudencia humana.
No cabe duda de que la IA está redefiniendo las dinámicas del poder militar y estratégico. Aunque la magnitud y la sofisticación del armamento –en particular, el nuclear– sigue siendo un elemento de vital importancia estratégica, cobra también importancia la capacidad de los Estados de integrar la IA de manera efectiva, aumentando así la precisión y la velocidad de respuesta, aunque generando también incertidumbre en cuanto a la capacidad de disuasión.
En definitiva, aunque la IA presenta una oportunidad valiosa para mejorar la seguridad estratégica en el ámbito nuclear, su integración en sistemas tan sensibles debe ser tratada con cautela. Es necesario equilibrar sus potenciales beneficios con los riesgos inherentes a su desarrollo y uso, considerando además la posibilidad de que estas capacidades tecnológicas puedan ser empleadas por actores no estatales. Por ello, resulta esencial establecer una regulación rigurosa, una supervisión humana constante y aplicar medidas de protección avanzadas para evitar que se convierta en una amenaza para la seguridad global.
Luciana Alejandra Rodriguez La Barrera
Estudiante del grado de Relaciones Internacionales en la Universidad de Navarra
Las ideas contenidas en estos artículos son responsabilidad de sus autores, sin que reflejen necesariamente el pensamiento del CESEDEN o del Ministerio de Defensa.
-
-
Armas nucleares e inteligencia artificial: un equilibrio entre la automatización y el factor humano
-
Nuclear weapons and artificial intelligence: a balance between automation and the human factor
-
