La integración de la inteligencia artificial en el ámbito militar no es solo una evolución tecnológica, sino un salto hacia un escenario de riesgos globales sin precedentes. La reciente cumbre internacional REAIM 2026, celebrada en España, dejó en evidencia la urgencia de regular su uso, pero también la profunda división entre las naciones. Solo 35 de los 85 países participantes firmaron un documento que busca establecer principios éticos no vinculantes, mientras que potencias como Estados Unidos o China se negaron a adherirse, priorizando la competencia tecnológica sobre la seguridad colectiva. Argentina en línea con EEUU tampoco firmó. Este rechazo refleja una carrera armamentística digital donde la automatización de la guerra podría deshumanizar los conflictos, reducir el umbral para entrar en ellos y, en el peor de los casos, escapar del control humano.

El principal peligro radica en que la IA militar puede tomar decisiones críticas —como identificar objetivos o calcular daños colaterales— sin la supervisión humana adecuada. Expertos, científicos o la Iglesia Católica (primero desde la voz del Papa Francisco y ahora la del Papa León XIV) han advertido que, al delegar estas decisiones a algoritmos, se corre el riesgo de aumentar errores de cálculo, escaladas accidentales o incluso ataques contra civiles, especialmente en contextos de alta tensión geopolítica. La velocidad y autonomía de estos sistemas, aunque útiles en teoría, plantean dilemas éticos: ¿cómo garantizar que una máquina distinga entre un combatiente y un civil, o que evalúe si el daño colateral es proporcional? La falta de consenso internacional agrava este escenario, ya que sin marcos legales claros, cada país desarrolla sus propias normas, muchas veces opacas y sin rendición de cuentas.

La cumbre en España buscó sentar bases para que la IA nunca sustituya el juicio humano en decisiones militares y para que los Estados asuman responsabilidad legal y ética por su empleo. Sin embargo, la ausencia de las mayores potencias —Estados Unidos y China, inmersos en una “Guerra Fría de la IA”— demuestra que la lógica competitiva prevalece sobre la cooperación. Ambos países argumentan que regulaciones estrictas podrían frenar su innovación y debilitar su liderazgo tecnológico, mientras promueven iniciativas paralelas que, en la práctica, carecen de mecanismos de verificación independientes. Esta postura no solo dificulta la transparencia, sino que también incrementa el riesgo de una escalada no deseada, donde la desconfianza mutua y la opacidad algorítmica podrían desencadenar conflictos imposibles de controlar.

El caso de Argentina es revelador: en contraposición a su posición natural siempre en favor de la paz en organismos internacionales, en esta ocasión optó por no firmar el acuerdo, lo que sugiere que en alianza con EEUU  prioriza la flexibilidad tecnológica sobre compromisos éticos. En tanto, países europeos como Francia, Alemania y Reino Unido sí respaldaron el documento, buscando posicionarse como líderes en el uso responsable de la IA. No obstante, sin la participación de las superpotencias, estos esfuerzos resultan insuficientes para frenar el avance de armas autónomas, drones inteligentes o sistemas de ciberguerra, cuya proliferación ya es una realidad en conflictos como el de Ucrania.

Los expertos advierten que, sin regulaciones globales efectivas, la IA militar podría reducir el costo y la complejidad de la guerra, haciendo que los conflictos sean más probables y menos predecibles. La automatización no solo acelera las operaciones, sino que también dificulta la atribución de responsabilidades: ¿quién responde si un algoritmo comete un error? La falta de respuestas claras a esta pregunta, sumada a la resistencia de las potencias a someterse a auditorías externas, crea un vacío legal que podría ser explotado en futuras crisis. Además, la integración de la IA en la ciberguerra y el espionaje amplía el campo de batalla a infraestructuras civiles, como redes eléctricas o sistemas financieros, donde un ataque podría tener consecuencias catastróficas sin que se dispare un solo proyectil.

La comunidad internacional enfrenta así un dilema: cómo equilibrar el desarrollo tecnológico con la necesidad de proteger a la humanidad de sus propios avances. Mientras algunos abogan por tratados vinculantes y mecanismos de verificación independientes, otros —como empresas tecnológicas y gobiernos— priorizan la ventaja estratégica. Este desbalance no solo amenaza la estabilidad global, sino que también erosionan la confianza en las instituciones encargadas de prevenir conflictos. La IA, en lugar de ser una herramienta para la paz, podría convertirse en el detonante de una nueva era de inseguridad, donde la velocidad de las máquinas supere la capacidad humana de prevenir tragedias.

En este contexto, la sociedad civil y los organismos internacionales tienen un rol clave: exigir transparencia, promover debates públicos y presionar por acuerdos que limiten el uso ofensivo de la IA. La cumbre de España fue un paso, pero insuficiente. Sin una voluntad política genuina y la participación de todos los actores relevantes, los riesgos seguirán creciendo. La humanidad ya ha visto cómo las innovaciones bélicas —desde la pólvora hasta la bomba atómica— transformaron para siempre el rostro de la guerra. La IA, con su potencial para actuar sin límites éticos ni geográficos, podría ser la próxima frontera, pero también la última advertencia antes de cruzar un punto de no retorno.

---

**Fuente:** Esta nota se basa en el análisis del especialista Sebastián Di Doménica, disponible en su columna y en el siguiente video: [https://youtu.be/5w8J8n9-vUI?si=cwsudi6gU6iZY0-J]