
02 dic 2024
La carrera de la IA militar. El maratón de las normas humanas para regularla
David Corral Hernández
Un mundo en transformación
El avance de la inteligencia artificial, IA, está obligando a las instituciones internacionales y a los gobiernos de todo el mundo a crear, o al menos a intentarlo, marcos normativos para definir y gestionar los riesgos y beneficios asociados a esta tecnología transformadora. La obligación es cada día más ineludible dada la velocidad a la que avanza y, con ella, las potenciales y numerosas amenazas para sociedades y seres humanos. Entre ellas hay muchas conocidas por el intenso debate que las rodea. Son la pérdida generalizada de puestos de trabajo, la desinformación cada vez más convincente y omnipresente, el sesgo algorítmico o la catalogación o manipulación social. Menos conocidas son sus posibilidades en el ámbito de la ciberseguridad, tanto ofensivas como defensivas, o su uso cada vez más extendido entre las fuerzas de defensa y seguridad, con las principales potencias (Estados Unidos y China a la cabeza de la rivalidad geopolítica) compitiendo por el control de industrias y tecnologías críticas y emergentes como los semiconductores, la computación cuántica o, por supuesto, la IA, con la que están llenando “arsenales” contratando a cientos de empresas para desarrollar y probar con seguridad nuevos algoritmos y herramientas para distintos ámbitos de aplicación.
En la cima de todas ellas se encuentran las amenazas catastróficas y existenciales que podrían causar las armas químicas, biológicas o atómicas/nucleares diseñadas o controladas con IA o la alteración de las cadenas de mando, tal como ha alertado Eric Schmidt, exconsejero delegado que fuera la máxima autoridad de Google durante 10 años y figura destacada de la industria de defensa estadounidense. Este “momento Oppenheimer” se agrava si tenemos en cuenta el doble uso de esta tecnología, como de otras, y que el acceso a la IA para no expertos o para cualquier persona que quiera causar daño es muy sencillo y asequible en términos económicos y de conocimiento. Referente es la publicación “Weapons of Mass Destruction Proxy”1 del Centro para la Seguridad de la IA, una herramienta que ayuda a calcular cómo determinados LLM (Grandes Modelos de Lenguaje) pueden reducir la barrera de entrada a las amenazas QBRN (Terrorismo Químico, Biológico, Radiológico y Nuclear).
Y mientras, proliferan rápidamente los sistemas de armamento autónomos en los campos de batalla de Ucrania y Gaza o en la guerra que puso fin al enquistado conflicto de Alto Karabaj entre Armenia y Azerbaiyán, lo que pone de manifiesto la falta de normas y controles internacionales. Serán también recordadas por ser las primeras guerras IA de la historia. Los algoritmos, además de emplearse en tareas de inteligencia, logística o vigilancia, vuelan en armamento o en vehículos no tripulados (drones) ayudando a las fuerzas que cuentan con ellos en la identificación de objetivos y enemigos y en el futuro, o no, que les espera. La gran línea roja es dar el gatillo a una máquina, en una delegación de responsabilidad consciente, para que decida quitar la vida a personas sin ninguna intervención o dirección humana.
Ante esta amenaza, que supera los planteamientos éticos y morales, son múltiples las voces que piden urgentemente una legislación y una regulación centradas en la IA para reducir estas amenazas. Y parece que hay respuestas, aunque su aplicación sea con mayor o menor vinculación o voluntariedad y sean muy dispares sus enfoques de gobernanza en función de las prioridades y de los contextos políticos, económicos y sociales. A lo largo de los últimos meses los principales organismos internacionales, con la ONU y la UE como referentes, o los gobiernos de EE.UU. o China, entre otras naciones, han aprobado acuerdos, leyes, directivas o reglamentos con el objetivo de precisar el uso de la IA y limitar los riesgos que plantea su mal uso. Dado que la IA sigue avanzando a un ritmo sin precedentes, es crucial que los responsables políticos y los investigadores colaboren estrechamente en el desarrollo de marcos normativos completos, adaptables y eficaces.
UE, la pionera
La Unión Europea se convirtió en pionera mundial al tener ya en vigor, desde el 1 de agosto de 2024, una norma única en el mundo, el Reglamento Europeo de Inteligencia Artificial2, un texto centrado en la protección de los derechos de los ciudadanos que fue propuesto por la Comisión en abril de 2021 y aprobado por el Parlamento Europeo y el Consejo en diciembre de 2023. Este marco jurídico integral, cuyo fin es fomentar el desarrollo y la implantación responsables de la IA en los países miembro de la UE, contempla entre otros riesgos aquellos que puedan afectar a la seguridad y los derechos fundamentales de los ciudadanos.
Para ello ha establecido un marco normativo para garantizar el desarrollo y uso seguro y ético de la IA en el que se prohíbe, en todo el territorio comunitario, el uso de sistemas que supongan una amenaza para la seguridad, los derechos o los medios de subsistencia de las personas y en el que se contemplan cuatro niveles de riesgo:
- Mínimo: Sistemas de aplicación voluntaria y en los que se incluyen la mayoría de los sistemas basados en IA, como aplicaciones ofimáticas o de entretenimiento.
- Limitado: Herramientas como los asistentes de voz o de generación de contenidos cuyo uso debe ser informado a los usuarios por transparencia, comunicando que están trabajando o interactuando con una máquina.
- Alto: Softwares como los empleados en ámbitos como los servicios públicos y privados esenciales, el empleo, la medicina, la conducción autónoma, la gestión de la migración, administración de justicia y procesos democráticos o la identificación biométrica, por citar algunos. Deben cumplir requisitos y obligaciones estrictos para acceder al mercado de la UE incluyendo sistemas de reducción del riesgo, conjuntos de datos de alta calidad, información clara para el usuario (transparencia), supervisión humana, etc.
- Inadmisible: Prohibidos en la UE. Son sistemas que supongan una amenaza para la seguridad, los derechos o los medios de subsistencia de las personas. Por ejemplo, los que se destinan a “puntuación o catalogación ciudadana”, la actuación policial predictiva, la manipulación cognitiva conductual o el reconocimiento de emociones en lugares de trabajo y centros educativos, entre otros.
Aunque en 2014 el Parlamento Europeo adoptó su primera resolución con el objetivo de “prohibir el desarrollo, la producción y el uso de armas totalmente autónomas que permitan llevar a cabo ataques sin intervención humana” y en diciembre de 2020, la Comisión de Asuntos Jurídicos del Parlamento Europeo adoptó el texto: “Inteligencia Artificial: directrices para usos militares y no militares”3, el nuevo reglamento de la Unión no recoge una aplicación para “los sistemas de IA que, y en la medida en que, se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificaciones, exclusivamente con fines militares, de defensa o de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades”.
Dicha exclusión está justificada por las especificidades de la política de defensa de los Estados miembros y de la política común de defensa de la Unión, ambas sujetas al Derecho internacional público que es, para la UE, el marco jurídico más adecuado para la regulación de los sistemas de IA en el contexto del uso de la fuerza letal y de otros sistemas de IA en el contexto de las actividades militares y de defensa. Por lo que respecta a los fines de seguridad nacional, la exclusión está justificada por el hecho de que la seguridad nacional sigue siendo responsabilidad exclusiva de los Estados miembros.
La única excepción que sí entraría en el ámbito de aplicación del Reglamento es cuando un sistema de IA desarrollado, introducido en el mercado, puesto en servicio o utilizado con fines militares, de defensa o de seguridad nacional sea utilizado, temporal o permanentemente, para otros fines, como los humanitarios o los civiles, y siempre y cuando quede garantizado el cumplimiento del Derecho o de seguridad pública.
La visión y el esfuerzo global de la ONU
En “una era de transformación épica” en la que vivimos en un “polvorín que corre el riesgo de engullir al mundo”4, tal como aseguró el secretario general de la ONU, António Guterres, en la sesión anual de la Asamblea General celebrada en la sede de Naciones Unidas en Nueva York en septiembre de 2024, la IA se ha convertido en una oportunidad, pero también, según advirtió5 en el Foro Económico Mundial de Davos, por poder llegar a ser una amenaza existencial comparable al calentamiento global.
Por ello la ONU y sus agencias trabajan para lograr normas, lo más universales, multilaterales y reconocidas que sea posible, para un futuro seguro, equitativo e integrador de la inteligencia artificial que considere los derechos humanos, la privacidad y el impacto social. “Las Naciones Unidas tienen una característica importante: su legitimidad. Es una plataforma donde todos pueden estar juntos”, ha afirmado Guterres6, quien cree que “la ONU es la única organización capaz de crear un marco verdaderamente global e integrador para la IA” ya que “otros tienen el poder, otros tienen el dinero, pero no la legitimidad ni el poder de convocatoria que tiene la ONU”.
La organización liderada por Guterres, que ha hecho de la regulación de la IA una prioridad y propone la creación de una entidad de la ONU similar a otras agencias, como el Organismo Internacional de Energía Atómica (OIEA), lleva años trabajando en este ámbito con diferentes iniciativas y aprovechando como base diferentes legislaciones. El foro principal de debate, hasta la fecha, de la aplicación de la IA en el ámbito militar ha sido el Grupo de Expertos Gubernamentales sobre tecnologías emergentes en el ámbito de los sistemas de armas autónomas letales, ya que el marco de la Convención sobre Ciertas Armas Convencionales de la ONU, establecido en 1980 para legislar sobre el uso de armas consideradas de naturaleza excesiva o indiscriminada, no ha podido responder a los desafíos relacionados con el desarrollo potencial de sistemas de armas autónomos letales.
La Convención de las Naciones Unidas sobre Ciertas Armas Convencionales de 2019 (CCW, por sus siglas en inglés7), recoge en el primero de sus 11 puntos que “el derecho internacional humanitario se aplica plenamente a todos los sistemas de armas, incluyendo los sistemas autónomos letales” y que, en el segundo, “la responsabilidad por las decisiones sobre el uso de estos sistemas debe mantenerse en manos de seres humanos, y no puede ser transferida a las máquinas”.
Esta idea, la de que “un algoritmo no debe tener el control total de las decisiones que implican matar”, quedó de nuevo patente en noviembre de 2023 en la Primera Comisión de la Asamblea General (Desarme y Seguridad Internacional). Tras 11 votaciones registradas por separado sobre sus disposiciones, aprobó por 164 votos a favor, 5 en contra (entre ellos Bielorrusia, India, y la Federación de Rusia) y 8 abstenciones (China, República Popular Democrática de Corea, Irán, Israel, Arabia Saudí, Siria, Turquía y Emiratos Árabes Unidos), el nuevo proyecto de resolución sobre los sistemas de armas autónomas letales (documento A/C.1/78/L.568). La resolución expresa su preocupación por las posibles consecuencias negativas y el impacto de los sistemas de armas autónomas en la seguridad mundial y la estabilidad, incluido el riesgo de una carrera armamentística, al mismo tiempo que deja claro que debe preservarse el principio de la responsabilidad humana en todo uso de fuerza letal, independientemente del tipo de sistema de armamento utilizado.
Mayor apoyo, unánime, tuvo la Resolución A/78/L.49 sobre “Aprovechar las oportunidades que ofrecen los sistemas de inteligencia artificial seguros y fiables en pro del desarrollo sostenible”9 aprobada por la Asamblea General de la ONU el 21 de marzo de 2024. Aunque la resolución no tiene efectos vinculantes inmediatos, su contenido servirá como guía normativa y marca un hito mundial en la “carrera hacia la regulación de la IA” al ser la primera resolución adoptada por la ONU en materia de inteligencia artificial. El texto, propuesto por Estados Unidos y copatrocinado por China y decenas de otros países, se adoptó por consenso de los 193 estados miembros tras varios fracasos previos y meses de negociaciones. El texto subraya la necesidad de directrices “para promover sistemas de inteligencia artificial seguros y fiables que se desarrollen de forma responsable y respeten los derechos humanos y la legislación internacional”, aunque, al igual que la UE, excluye de su ámbito la IA militar. Sigue pendiente una resolución de este organismo en este sentido, por ello el secretario general de la ONU ha pedido un tratado jurídicamente vinculante para 2026 que prohíba las LAWS (Lethal Autonomous Weapons - Armas Autónomas Letales) que operan sin control ni supervisión humana y no cumplan con el derecho internacional humanitario.
Reciente es el informe titulado “Gobernar la Inteligencia Artificial para la Humanidad10”, publicado en septiembre de 2024 en su última versión por el Órgano Asesor de Alto Nivel sobre Inteligencia Artificial de la ONU. Incluye recomendaciones para la gobernanza mundial de la IA que podrán servir como hoja de ruta para salvaguardar nuestro futuro digital y garantizar que la Inteligencia Artificial beneficie a toda la humanidad, solicitando a todas las partes interesadas que colaboren en la gobernanza de la IA para fomentar el desarrollo y la protección de todos los derechos humanos.
Otros textos relevantes, también recientes, en este caso sí que dedicados a las oportunidades y los riesgos de la IA con fines militares, así como sobre la gobernanza y el uso responsable de estas tecnologías, son los informes elaborados por el Instituto de las Naciones Unidas de Investigación sobre el Desarme (UNIDIR)11. Su pretensión es abordar cuestiones éticas, legales y operativas que sirvan para mejorar la comprensión del uso de la IA en tareas militares, prevenir su proliferación incontrolada y recalcar la necesidad del “control humano significativo” que asegure los principios fundamentales del derecho internacional humanitario, al igual que la responsabilidad, supervisión y rendición de cuentas en casos como el reconocimiento y selección de objetivos, el uso (proporcional) de la fuerza o el de armas letales, entre otras posibilidades.
75 años al frente de la defensa colectiva
La OTAN, principal alianza militar del planeta por capacidades y tamaño, ha cumplido 75 años y lo ha hecho inmersa en una transformación hacia un futuro en el que tiene como objetivo desarrollar y adoptar nuevas tecnologías emergentes y disruptivas (EDTs), establecer o participar en principios internacionales de uso responsable y que las nueve áreas tecnológicas prioritarias que ha establecido en el camino de la innovación, entre ellas la IA, biotecnología y tecnologías de mejora humana, cuánticas o sistemas autónomos, permitan mantener la ventaja tecnológica de la OTAN frente a posibles adversarios.
En lo que se refiere a IA en la Alianza, el referente es el Comité de Revisión de Datos e IA. Cada país tiene un miembro en el Consejo, no necesariamente militar, ya que pueden proceder de la administración pública, el sector privado, la academia o la sociedad civil, para garantizar por origen y perfil que el enfoque de la OTAN sobre la “IA Responsable”, que debe desarrollarse en una norma de certificación, sea multidisciplinar. Esta unidad regula el desarrollo y uso seguro de la IA y ayuda a poner en práctica los “Principios de Uso Responsable de la IA12” acordados por los Aliados en la Estrategia de IA de la OTAN. Esta norma, cuya primera edición es de 2021 y ha sido revisada en 2024, pretende acelerar el uso de las tecnologías de IA dentro de la OTAN y la interoperabilidad entre aliados pues “es vital que la OTAN utilice estas tecnologías, cuando proceda, lo antes posible.”.
Los problemas de seguridad derivados de las nuevas tecnologías de IA son importantes, sobre todo para uso militar, por lo que la OTAN se propone seguir abogando por un uso responsable, garantizando que, aquellas que se desarrollen o sean empleadas, cumplan con los principios de uso responsable de legalidad; responsabilidad y rendición de cuentas; explicabilidad y trazabilidad; fiabilidad; gobernabilidad y mitigación del sesgo. Además, utilizará su poder de convocatoria para influir en las normas y estándares internacionales y que este uso responsable de la IA pueda reflejarse, finalmente, en una resolución “histórica” de la Asamblea General de las Naciones Unidas sobre la IA.
Por primera vez la estrategia identifica la desinformación generada por IA, las operaciones de información y la violencia de género como temas de preocupación para la Alianza y las sociedades y democracias de sus miembros. También trabajará para protegerse contra el uso adversario de la IA, entre otras cosas mediante una mayor previsión y análisis estratégicos.
Entre los retos están también los que afectan a sus empleados militares y civiles. Para hacer frente a las repercusiones que supone la llegada de nuevas tecnologías podrían ser necesarios, por ejemplo, programas de reciclaje profesional, cambios en las funciones de los puestos de trabajo y una mayor integración de los expertos técnicos en las operaciones militares. Desde el sector privado o los proveedores de defensa no tradicionales, la OTAN tiene previsto conseguir soluciones innovadoras a través de DIANA (Defence Innovation Accelerator for the North Atlantic) y el Fondo de Innovación (NIF).
China, superpotencia tecnológica
La República Popular China tiene en la tecnología y su dominio y supremacía uno de los principales pilares para asegurar su crecimiento económico y su estatus como superpotencia mundial. Socia habitual y activa en todos los foros internacionales de IA, no lo es tanto, al igual que otras naciones avanzadas, a la hora de definir o limitar su uso militar. Sus normas nacionales son muy específicas para cada ámbito, especialmente en el control social y en todo aquello que asegure mantener y proteger los valores del gobernante Partido Comunista de China.
El libro blanco de China de 2019 sobre defensa nacional defiende la teoría de la “guerra inteligente13”, en la que se considera vital aprovechar la IA para los planes de modernización del Ejército Popular de Liberación. Dos años después, en 2021, se publicaron las “Normas Éticas para la Inteligencia Artificial de Nueva Generación14” y en los últimos años se han aprobado una serie de normativas verticales dirigidas a ámbitos específicos de las aplicaciones de la IA. Entre ellas destacan:
- Las “Disposiciones sobre recomendaciones algorítmicas”, de 2021, que obligan a un registro de algoritmos que exige que todos los algoritmos de organizaciones chinas que cumplan los requisitos se registren en un plazo de 10 días a partir de su lanzamiento público. Además, regula los algoritmos de recomendación, como los que proporcionan clasificaciones personalizadas, filtros de búsqueda, toma de decisiones o “servicios con propiedades de opinión pública o capacidades de movilización social”.
- “Disposiciones sobre síntesis profunda”, de 2022, que regulan el uso de algoritmos que generan contenidos sintéticos. Su objetivo es combatir la desinformación y los “deepfakes” exigiendo etiquetado, identificación de usuarios y proveedores para evitar “usos indebidos”.
- “Medidas provisionales sobre IA Generativa”, de 2023, una norma que pretendía responder al lanzamiento de ChatGPT regulando en mayor profundidad los modelos de lenguaje, reforzando disposiciones como los requisitos de discriminación, los datos de entrenamiento y la alineación con los intereses nacionales.
En muchos sentidos la gobernanza china de la IA funciona de forma paralela y disociada de la occidental y las principales empresas de IA, como OpenAI o Google, no prestan servicio en el país asiático por no querer cumplir las políticas impuestas por Pekín.
EE.UU. quiere seguir marcando el camino
Pese al bloqueo legislativo en el Congreso que ha sufrido la administración del presidente Joe Biden, Estados Unidos ha adoptado un enfoque de la gobernanza de la IA centrado en decretos y declaraciones con los que ha tratado de mantener su ventaja tecnológica y militar y frenar los avances de China en este campo, posicionarse como líder mundial y promocionar políticas de IA nacionales e internacionales, la mayoría no vinculantes.
La carrera armamentística geopolítica contra China es clave en la estrategia estadounidense de gobernanza de la IA, muy influenciada por la amenaza que supone para Washington los rápidos avances de China en IA y las posibles implicaciones que puedan tener para la seguridad nacional y el equilibrio de poder o del orden mundial. Vinculantes sí que han sido las medidas tomadas para frenar las ambiciones de Pekín, como impedir el acceso a semiconductores avanzados, cruciales para desarrollar y evolucionar modelos de IA.
En 2022 se hizo público el “Plan para una Declaración de Derechos de la IA15”, proyecto no vinculante que esboza cinco principios para guiar el diseño, uso y despliegue de sistemas automatizados para proteger los derechos del público estadounidense. Son sistemas seguros y eficaces, protecciones contra la discriminación algorítmica, privacidad de los datos, notificación y explicación, y alternativas humanas, consideración y alternativa.
La “Executive Order (14110) on Safe, Secure, and Trustworthy Artificial Intelligence16”, de 2023, establece nuevos estándares para el desarrollo de una IA segura, la protección de la privacidad de los estadounidenses, la promoción de la equidad y los derechos civiles, la defensa de los consumidores y trabajadores, la promoción de la innovación y la competencia, la promoción del liderazgo estadounidense en materia de IA y por garantizar el uso gubernamental responsable y eficaz de la IA.
El Consejo de Seguridad Nacional y el jefe de Gabinete de la Casa Blanca tienen como misión ordenar el desarrollo de un Memorando de Seguridad Nacional que dirija acciones adicionales sobre IA y seguridad y que permita garantizar que la comunidad militar y de inteligencia de los Estados Unidos utilice la IA de forma segura, ética y eficaz en sus misiones. Además, deberá establecer acciones para contrarrestar el uso militar de la IA por parte de los adversarios.
De momento, el Departamento de Defensa ya ha hecho pública su estrategia para acelerar la adopción de capacidades avanzadas de inteligencia artificial: “Data, Analytics, and Artificial Intelligence Adoption Strategy. Accelerating Decision Advantage17”. “Desde el punto de vista de la disuasión y la defensa frente a agresiones, los sistemas basados en IA pueden ayudar a acelerar la toma de decisiones de los mandos y mejorar la calidad y precisión de esas decisiones, lo que puede ser decisivo para evitar un combate o vencer en él”, ha declarado la subsecretaria de Defensa, Kathleen Hicks, al presentar esta estrategia en el Pentágono. Este nuevo documento pretende sentar las bases para que el DoD aproveche las capacidades emergentes de la IA en el futuro y permita garantizar que los combatientes estadounidenses mantengan la superioridad en la toma de decisiones en el campo de batalla durante los próximos años.
Estados Unidos también ha presentado una declaración política de 1218 puntos que promueve la cooperación internacional sobre el uso responsable de la inteligencia artificial y las armas autónomas. Los más de 50 firmantes, entre los que se encuentra España, al igual que la mayoría de los miembros de la UE o Australia y Japón, se comprometen a recurrir a revisiones jurídicas y capacitación para garantizar que la IA militar se ajuste a las leyes internacionales, a la rendición de cuentas, a desarrollar la tecnología con ética, cautela y transparencia, a evitar sesgos involuntarios en los sistemas que la emplean, así como a seguir debatiendo el modo en que la IA podría evolucionar e implementarse de forma responsable. No están China, Rusia, India o Pakistán, que tienen los mayores ejércitos del mundo junto a Estados Unidos. Tampoco Israel, uno de los mayores aliados de Washington y usuario avanzado de la IA en conflictos armados.
La declaración, que no es jurídicamente vinculante ni prohíbe ningún uso específico de la IA en el campo de batalla, es el primer gran acuerdo entre naciones para imponer límites voluntarios a la IA militar y en ella se establece “mantener el control humano y la participación en todas las acciones críticas para informar y ejecutar decisiones soberanas relacionadas con el empleo de armas nucleares”.
REAIM ¿Un camino inesperado?
Bletchley Park, la localidad inglesa en la que Alan Turing desveló el secreto de la máquina de cifrado “Enigma” de los nazis y comenzó a pensar en máquinas que piensan, fue el lugar que acogió en 2023 un encuentro y un logro histórico. En el AI Safety Summit19, la Cumbre de Seguridad de la IA organizada por el gobierno británico, se dieron citas las principales potencias mundiales y los pioneros globales en el desarrollo de la inteligencia artificial para, por primera vez, “trabajar juntos” en esta tecnología de manera que sea “segura” y su uso regulado para prevenir sus efectos más “catastróficos”.
La “Declaración de Bletchley20” fue firmada conjuntamente por Estados Unidos, China, la Unión Europea, Reino Unido, Japón, India, Brasil… hasta un total de 28 naciones, incluyendo a España. El compromiso, aunque como otros es no vinculante y genérico, sí que ha unido por primera vez a Estados Unidos y a China en un acuerdo mundial. “Estamos decididos a trabajar juntos de manera inclusiva para asegurar una IA humano-céntrica, fiable y responsable que sea segura”, dice el texto, dado que “existe un potencial para un daño serio, incluso catastrófico, deliberado o accidental, derivado de las capacidades más significativas de estos modelos de IA. Visto el ritmo rápido e incierto de cambio de la IA, y en el contexto de la aceleración de inversión en tecnología, afirmamos que profundizar en nuestro conocimiento de estos riesgos potenciales y las acciones para afrontarlas es especialmente urgente”.
Este hito tuvo dos secuelas previstas para ampliar su impacto, las cumbres REAIM celebradas en 2023 en La Haya (Países Bajos) y Seúl (República de Corea) en 2024, con representantes de 57 y 121 estados respectivamente. La Cumbre REAIM (Responsible AI in te Military domain o Inteligencia Artificial Responsable en el Ámbito Militar) es una plataforma mundial, la más completa e inclusiva en la actualidad, de debate sobre la aplicación militar responsable de la IA.
En la sesión inaugural de La Haya se marcaron las primeras pautas sobre el uso de la IA en el campo de batalla. El avance, sin embargo, llegó en Seúl. Más de 60 países, entre ellos Estados Unidos, la mayoría de europeos, algunos americanos, asiáticos y de Oceanía aprobaron un “Plan de acción21” diseñado para orientar el uso de la inteligencia artificial en aplicaciones militares. Sin embargo, en una clara demostración de que el interés en el tema es común pero las posiciones e intereses no tanto, China y unos 30 países más presentes en el encuentro no firmaron. Tampoco Rusia, ausente de las dos citas al estar condenada por la invasión de Ucrania.
En sus 20 puntos, no vinculantes, el documento se estructura en tres temáticas: el impacto que produce la IA en la paz y seguridad internacional, la implementación de la IA responsable en la Defensa y la Gobernanza futura de la IA en el entorno militar. Subraya la necesidad de un control humano cumpliendo la legislación internacional (en particular el derecho internacional humanitario) y garantizar que la responsabilidad y la rendición de cuentas nunca son transferidas a máquinas, incluidas las medidas adecuadas relacionadas con el juicio humano y el control sobre el uso de la fuerza en consonancia con los principios de proporcionalidad y necesidad. La IA debe ser ética, centrada en el ser humano, fiable y se mejorará su explicabilidad a través de evaluaciones exhaustivas que impidan la escalada y el uso indebido de las armas basadas en ella.
Entre los principales acuerdos alcanzados y reflejados en el plan figuran los compromisos para garantizar que la IA no amenace la paz, seguridad y la estabilidad mundial, no viole los derechos humanos, no eluda el control humano y no obstaculice otras iniciativas relacionadas con la tecnología militar. De hecho fomenta la colaboración a todos los niveles de manera abierta e inclusiva y considera que las normas desarrolladas por países democráticos que trabajan juntos ayudarán a proteger los derechos humanos. También insta a compartir información y colaborar para gestionar los riesgos tanto previsibles como imprevisibles y mantener el control humano sobre el uso de la fuerza.
Los firmantes entienden que las capacidades IA en el ámbito militar proceden de entornos de seguridad diferentes con preocupaciones diversas, por lo que destacan la importancia del desarrollo de capacidades, especialmente en los países en desarrollo, para promover la plena participación de dichos países en los debates sobre la gobernanza de la IA en el ámbito militar.
La importancia de REAIM va más allá del “Plan de Acción” o de otras iniciativas similares que, de igual manera, no son vinculantes. Es un foro menos politizado, más abierto y colaborativo con múltiples partes interesadas, en el que no hay mandatos restrictivos que impidan sumar esfuerzos para trabajar sobre la IA ética y responsable en el ámbito militar. Una tarea, urgente y necesaria, que puede sentar los cimientos para una, también urgente y necesaria, resolución unánime de Naciones Unidas, y con compromiso de los firmantes, que determine qué es inaceptable por motivos morales, jurídicos y éticos en el empleo de la IA o armas autónomas.
David Corral Hernández
Periodista RTVE
-
-
La carrera de la IA militar. El maratón de las normas humanas para regularla
-
