
Solo 35 de los 85 países que participaron en la III Cumbre Internacional sobre el Uso Responsable de la Inteligencia Artificial en el Ámbito Militar (REAIM) firmaron una declaración que busca garantizar el uso seguro y responsable de la inteligencia artificial (IA) para usos militares. Entre las naciones que decidieron no adoptar el marco regulatorio no vinculante se encuentran China y Estados Unidos, considerados como actores clave en el avance de las nuevas tecnologías de defensa.
La cumbre REAIM se llevó a cabo la semana pasada en A Coruña, Galicia, y reunió a delegaciones oficiales de 85 países, además de más de 1,500 asistentes provenientes de distintos sectores. Entre los participantes se contaron responsables de políticas públicas, representantes de centros de pensamiento, empresas desarrolladoras de tecnología, expertos en defensa y organizaciones de la sociedad civil. El Ministerio de Asuntos Exteriores de España subrayó que el objetivo central del foro fue “generar un diálogo inclusivo a través del cual construir consensos internacionales, de modo que la inteligencia artificial aplicada al ámbito militar pueda contribuir a la paz y la seguridad internacionales”.
El encuentro de alto nivel concluyó con la adopción de un compromiso internacional que fija principios para el uso responsable de la IA en el terreno militar, un tema que ha cobrado creciente relevancia ante el acelerado avance tecnológico y los riesgos asociados a su aplicación en escenarios de conflicto. El documento fue suscrito por los siguientes países: Alemania, Armenia, Austria, Bélgica, Canadá, Chile, Chipre, Costa Rica, Dinamarca, España, Filipinas, Finlandia, Francia, Georgia, Ghana, Grecia, Hungría, Irlanda, Islandia, Italia, Luxemburgo, Marruecos, Noruega, Pakistán, Países Bajos, Panamá, Portugal, Reino Unido, República de Corea, Rumanía, Singapur, Suecia, Suiza, Turquía y Ucrania.
¿Qué dice el pacto sobre IA militar?
El texto firmado da continuidad a los acuerdos no vinculantes alcanzados en las ediciones previas de la cumbre REAIM, celebradas en 2023 y 2024 en La Haya y Seúl, respectivamente. En él se reconoce que un uso adecuado de la inteligencia artificial puede contribuir a reducir los riesgos para el personal militar, mejorar la protección de la población civil y respaldar procesos de toma de decisiones más oportunos y fundamentados, lo que favorecería el cumplimiento del derecho internacional humanitario.
No obstante, el documento también advierte que la incorporación de la IA en sistemas de defensa introduce riesgos significativos, entre ellos errores de cálculo, sesgos algorítmicos, pérdida de control humano y posibles escaladas involuntarias de los conflictos. Ante este panorama, los firmantes subrayan la necesidad de construir una comprensión compartida de estos peligros y de establecer salvaguardas comunes que permitan mitigarlos de manera efectiva.
Uno de los ejes centrales del compromiso es la adopción explícita del enfoque de “responsabilidad desde el diseño”, que plantea la integración de principios éticos y criterios de uso responsable desde las etapas iniciales de planeación y desarrollo de los sistemas, hasta su eventual retiro. En este sentido, el texto enfatiza que la IA no debe sustituir en ningún caso el juicio humano en la toma de decisiones militares. Los algoritmos, señala, deben operar como herramientas de apoyo, con un grado de intervención humana ajustado al contexto operativo, las funciones específicas del sistema, sus características técnicas y los riesgos asociados a su uso.
La declaración también establece que la responsabilidad legal y ética derivada del empleo de la IA en acciones de defensa recae, sin excepción, en los Estados y en las personas que operan estos sistemas. De este modo, se advierte sobre el riesgo de generar “vacíos de responsabilidad” cuando se delegan funciones críticas a tecnologías automatizadas en entornos militares, una situación que podría dificultar la rendición de cuentas ante posibles violaciones al derecho internacional.
Últimas noticias de última hora Portal de noticias en línea
