Cumbre mundial en A Coruña sobre robots militares con IA capaces de matar
Los drones son ya el arma más importante en guerras como la de Ucrania. A nadie se le escapa que pronto habrá tecnología suficiente para que ellos solos determinen cuándo y cómo matar a los enemigos sin necesitar órdenes de sus controladores. Esto es uno de los aspectos que se debatirá en la próxima reunión de REAIM en A Coruña, Galicia.
A Coruña se convertirá los próximos 4 y 5 de febrero en el epicentro mundial del debate sobre el uso responsable de la inteligencia artificial en el ámbito militar, con la celebración de la tercera cumbre REAIM (Responsible Artificial Intelligence in the Military domain), una cita que reunirá a gobiernos, industria y sociedad civil para discutir cómo encauzar una tecnología que ya está transformando la forma de hacer la guerra. En un contexto en el que la IA ha dejado de ser una promesa de futuro para convertirse en una herramienta real en los campos de batalla, la elección de la ciudad herculina sitúa a España en la primera línea de los esfuerzos internacionales por fijar reglas, principios y límites a su empleo militar.
La cumbre, organizada por los Ministerios de Asuntos Exteriores y Defensa, en colaboración con el Ayuntamiento de A Coruña y en coordinación con los gobiernos de Países Bajos y la República de Corea, busca dar continuidad a los avances logrados en las anteriores ediciones de La Haya (2023) y Seúl. Sobre la mesa estarán los documentos ‘Call to Action’ y ‘Blueprint for Action’, que recogen los compromisos políticos y las hojas de ruta técnicas acordadas por los países anfitriones para promover un uso responsable, seguro y transparente de la inteligencia artificial en entornos militares. España aspira ahora a traducir esos principios en medidas “realistas, concretas y progresivas”, un mensaje que el propio Ministerio de Exteriores ha querido subrayar al presentar la cita.
El encuentro en A Coruña reunirá a ministros de Exteriores y de Defensa, delegaciones de gobiernos de todo el mundo, representantes de organizaciones regionales e internacionales, empresas del sector industrial de defensa y tecnología, expertos del mundo académico y voces de la sociedad civil, reflejando que el debate sobre la IA militar ya no es exclusivo de los estados mayores ni de los laboratorios. Según ha adelantado Exteriores, todos estos actores podrán proponer actividades, paneles y eventos paralelos en el marco de la cumbre hasta el 14 de diciembre, un mecanismo que busca abrir el proceso y hacer de REAIM un foro de discusión plural, más allá de los comunicados oficiales y las declaraciones finales.
En el trasfondo de la cumbre late la constatación de que la inteligencia artificial se ha incorporado de forma acelerada al campo de batalla, desde sistemas de apoyo a la decisión y análisis de datos hasta el control de drones, vigilancia y ciberdefensa. Desde la primera cumbre REAIM en 2023, los avances tecnológicos y la experiencia acumulada en conflictos recientes han impulsado a un número creciente de países a aprobar directrices y principios nacionales sobre el uso militar de la IA, con el objetivo de mitigar riesgos éticos, jurídicos y de seguridad sin renunciar al potencial operativo de estas herramientas. La cita de A Coruña llega, por tanto, en un momento clave para intentar armonizar estándares y evitar una carrera desregulada en sistemas cada vez más autónomos.
La propia iniciativa REAIM se ha consolidado como el principal proceso internacional de referencia para hablar de IA militar desde una perspectiva de uso responsable. Su filosofía pasa por fomentar el intercambio de ideas entre gobiernos, organizaciones internacionales, industria, universidad y sociedad civil, con la idea de que los principios que se definan no se queden en declaraciones generales, sino que se integren en las doctrinas militares, los procesos de adquisición de armamento y los marcos regulatorios nacionales e internacionales. España, al asumir el rol de país anfitrión, refuerza su discurso de alineamiento con los esfuerzos globales para controlar los riesgos de la IA y se posiciona como mediador entre las grandes potencias tecnológicas, los aliados europeos y aquellos estados que reclaman una regulación más estricta de los sistemas autónomos.
En clave interna, la organización de REAIM en A Coruña sirve también para proyectar el papel de la Agencia Española para la Supervisión de la Inteligencia Artificial (AESIA), dependiente del Ministerio para la Transformación Digital y de la Función Pública, que colabora estrechamente en los preparativos.
¿Debe una máquina determinar qué soldado debe morir?
El debate sobre el uso de inteligencia artificial (IA) en el campo militar gira en torno a si se debe permitir que las máquinas tomen decisiones de vida o muerte, cómo garantizar el control humano y la rendición de cuentas, y qué límites legales y éticos deben imponerse a los sistemas autónomos de armas y de apoyo a la decisión. A esto se suma una dimensión estratégica: la carrera armamentística en IA, el riesgo de que baje el umbral para iniciar una guerra y la vulnerabilidad de las sociedades a nuevos tipos de ciberataques y guerras híbridas.
El punto más controvertido es la creación de sistemas de armas letales autónomas (LAWS), capaces de seleccionar y atacar objetivos sin intervención humana directa una vez activados. Organismos como la ONU y el Comité Internacional de la Cruz Roja advierten de que delegar en algoritmos decisiones de matar choca con la dignidad humana y dificulta cumplir principios básicos del derecho internacional humanitario, como la distinción entre civiles y combatientes y la proporcionalidad en el uso de la fuerza
Críticos como expertos en robótica y ética piden prohibir el “ataque autónomo letal”, señalando que incluso para un humano ya es difícil distinguir en tiempo real quién combate y quién no, por lo que una IA entrenada con datos incompletos o sesgados podría provocar más bajas civiles. En el polo opuesto, una parte de la comunidad militar y tecnológica sostiene que robots y algoritmos bien diseñados podrían, en ciertas circunstancias, disparar con más precisión y menos sesgos emocionales que los soldados humanos, reduciendo errores por miedo, agotamiento o sed de venganza.
Un eje central del debate es cuánto “control humano significativo” debe existir sobre sistemas militares impulsados por IA. La mayoría de los Estados y organizaciones humanitarias coinciden en que un algoritmo no puede ser el único responsable de una decisión de fuego, y que siempre debe haber una persona jurídica y moralmente identificable que responda por los daños causados
Surge además el problema de los sistemas de apoyo a la decisión militar, que no disparan, pero recomiendan rutas, objetivos o niveles de fuerza sobre la base de grandes volúmenes de datos. Diversos especialistas alertan de que estos sistemas pueden generar sesgos de automatización, donde los mandos aceptan sin cuestionar las recomendaciones de la IA, lo que erosiona su autonomía moral y profesional y complica la atribución de responsabilidad en caso de errores graves
En el plano geopolítico, el debate se intensifica por el temor a una nueva carrera armamentística en IA militar, con el riesgo de proliferación de sistemas difíciles de controlar y susceptibles de ser copiados por actores no estatales. La ONU ha alertado del peligro de que los sistemas autónomos bajen el umbral para ir a la guerra, al reducir el coste político de los conflictos para los gobiernos que despliegan menos tropas humanas sobre el terreno.
Al mismo tiempo, la IA multiplica las capacidades de la guerra híbrida y los ciberataques, permitiendo automatizar campañas de desinformación, ataques a infraestructuras críticas o intrusiones masivas en redes militares y civiles. En España y otros países europeos, altos mandos militares y servicios de inteligencia advierten de que internet se ha convertido en un campo de batalla permanente, y que es imprescindible aprender a usar la IA tanto para atacar como para defenderse en el ciberespacio.
En los últimos conflictos, la IA se ha introducido de forma creciente en drones, sistemas de vigilancia y plataformas de mando y control. En escenarios como Ucrania, se han utilizado enjambres de drones con distintos grados de autonomía, capaces de identificar patrones, seguir objetivos y coordinarse entre sí, aunque la decisión final de disparar suele seguir en manos humanas, al menos de forma formal.
Otro ejemplo son los sistemas de apoyo a la decisión que integran datos de satélites, sensores en tierra, comunicaciones interceptadas y redes sociales para producir “paquetes” de inteligencia casi en tiempo real. Plataformas como la iniciativa española IndraMind, presentada como la primera IA soberana para gestionar amenazas híbridas, buscan fusionar grandes volúmenes de datos y convertirlos en órdenes y alertas operativas más rápidas, lo que plantea a la vez ventajas tácticas y dudas sobre la dependencia de los mandos respecto al “consejo” algorítmico.
En el ámbito diplomático, el debate gira en torno a si hace falta un tratado específico sobre armas autónomas o basta con aplicar el derecho internacional humanitario ya existente. En diciembre de 2024, la Asamblea General de la ONU aprobó una resolución sobre sistemas de armas letales autónomas, mostrando un amplio apoyo a la idea de fijar prohibiciones y restricciones claras, como vetar los sistemas que puedan seleccionar y atacar personas sin intervención humana.
Figuras como el secretario general de la ONU y la presidenta del Comité Internacional de la Cruz Roja han reclamado que las negociaciones para un nuevo tratado concluyan antes de 2026, subrayando que sin reglas precisas, cada Estado interpretará a su manera qué es aceptable, lo que alimenta la inseguridad jurídica y política. Países como España, parte de la Convención sobre Ciertas Armas Convencionales, apoyan un instrumento jurídicamente vinculante que regule los sistemas autónomos de acuerdo con el derecho internacional humanitario y de los derechos humanos, mientras otras potencias se muestran más reacias a limitar sus programas de IA militar.
Escribe tu comentario