La Secretaría de Defensa estadounidense ha formalizado un acuerdo sin precedentes con siete de los gigantes tecnológicos más poderosos del mundo para integrar sistemas de inteligencia artificial en sus operaciones militares clasificadas. SpaceX, OpenAI, Google, Microsoft, Nvidia, Amazon Web Services y Reflection han sido seleccionadas para desplegar sus herramientas de IA en las redes clasificadas del Pentágono, consolidando lo que las autoridades de defensa denominan la transformación hacia una "fuerza militar que prioriza la IA en primer lugar". Este movimiento marca un hito en la fusión estratégica entre Silicon Valley y el complejo militar-industrial estadounidense, con implicaciones que van más allá de las fronteras norteamericanas en un contexto de competencia tecnológica global con potencias como China.

La integración de inteligencia artificial en los sistemas de defensa no constituye una novedad en sí misma; el Pentágono ha invertido en tecnología de IA durante aproximadamente una década. Sin embargo, la magnitud y el alcance de estos nuevos acuerdos representan un salto cualitativo significativo. Según el Departamento de Defensa, más de 1.3 millones de personas vinculadas a las fuerzas armadas ya utilizan una plataforma de IA, donde estas herramientas están reduciendo tareas que antes tomaban meses a solo días. Los sistemas de IA tendrán funciones que abarcan desde la identificación automatizada de objetivos militares, vigilancia masiva de datos, análisis predictivo de información hasta el mantenimiento preventivo de equipos. La promesa oficial es mejorar la toma de decisiones tácticas y estratégicas en todos los dominios del combate.

Lo que no ha sido comunicado transparentemente es qué sucede cuando los algoritmos pueden actuar sin supervisión humana constante. El Pentágono insistió en una cláusula de "cualquier uso legal" en los contratos con las tecnológicas, pero la definición de "legal" en contextos de operaciones militares clasificadas permanece opaca y fuera del escrutinio público. Esta opacidad se intensificó dramáticamente cuando Anthropic, la empresa creadora de Claude, se negó a firmar estos acuerdos sin garantías explícitas contra el uso de su inteligencia artificial en sistemas de armas autónomas letales. La administración Trump respondió clasificando a Anthropic como un riesgo de seguridad de la cadena de suministro y eliminándola de los contratos clasificados, reemplazándola por OpenAI. El mensaje fue contundente: aquellas empresas que cuestionen los planes militares quedarán excluidas.

La preocupación central radica en la naturaleza misma de los sistemas autónomos. A diferencia de un soldado que posee educación ética, contexto histórico y la capacidad de reflexión moral sobre las consecuencias de sus actos, un algoritmo de IA puede malinterpretar una amenaza potencial y responder con una agresividad desmedida. Estudios científicos y simulaciones militares han demostrado que los sistemas de inteligencia artificial pueden ejecutar acciones excesivamente agresivas de manera autónoma cuando se enfrentan a situaciones no previstas en sus entrenamientos. El riesgo no es teórico: ya existen casos que ilustran la gravedad de la transición de la teoría a la práctica.

Esta automatización de decisiones letales plantea vulnerabilidades que van más allá del error individual. Los sistemas de IA entrenados con datos que contienen sesgos pueden discriminar sistemáticamente a poblaciones específicas, reproduciendo desigualdades estructurales en contextos de vida o muerte. Además, cuando algo falla, la responsabilidad se dispersa entre ingenieros, operadores, líderes militares y fabricantes, creando un vacío que contradice los principios fundamentales del derecho internacional humanitario. La ley de la guerra requiere que exista distinción clara entre combatientes y civiles, y que se tomen todas las precauciones para minimizar daño civil. Los algoritmos, particularmente aquellos que aprenden y se adaptan en tiempo real, operan bajo lógicas que ni siquiera sus creadores pueden predecir completamente.

El desacuerdo con Anthropic expone una grieta profunda entre dos visiones irreconciliables sobre el futuro de la tecnología militar. Una postura, defendida por Anthropic y respaldada por expertos en derechos humanos internacionales, sostiene que ciertos usos de la IA nunca deben autorizarse bajo ninguna circunstancia, particularmente el control autónomo de sistemas letales o el avance en la vigilancia masiva. La otra postura, adoptada por el Pentágono y las demás tecnológicas, argumenta que las capacidades de la IA son necesarias para mantener la superioridad militar estadounidense y que las regulaciones deben ser flexibles para no limitar la operatividad. Empleados de grandes tecnológicas como Google, incluso aquellos que trabajan en proyectos de defensa, se han movilizado activamente para cuestionar estos acuerdos, generando una tensión interna sin precedentes en empresas que históricamente buscaban mantener distancia del aparato militar.

La carrera por la dominación tecnológica en inteligencia artificial ha comenzado a reconfigurar los términos bajo los cuales se libran conflictos internacionales. Si los sistemas de IA pueden reducir costos políticos de guerras de agresión al disminuir bajas propias, y si pueden escalar conflictos de baja intensidad más rápidamente de lo que los humanos pueden controlar, entonces los incentivos estructurales para la resolución pacífica de disputas se erosionan fundamentalmente. Expertos advierten sobre la posibilidad de un arm race en armas autónomas impulsadas por IA, donde la presión competitiva impulsa a las naciones a desplegar sistemas sin suficientes salvaguardas. El Papa Francisco antes de morir ha instado a la comunidad internacional a introducir un control humano "cada vez mayor y apropiado", argumentando que ninguna máquina debería jamás elegir si un ser humano vive o muere. Encuestas consistentes muestran que una mayoría de ciudadanos en democracias occidentales considera que las armas autónomas letales son éticamente inaceptables.

Lo que está en juego no es simplemente la eficiencia operativa de las fuerzas armadas estadounidenses, sino los fundamentos éticos de la conducción de la guerra, los términos en que se libran conflictos, y la capacidad de la comunidad internacional para mantener salvaguardas humanitarias en tiempos de cambio tecnológico acelerado. Sin mecanismos de supervisión radicalmente más robustos que los existentes, sin transparencia sobre cómo y dónde se despliegan estos sistemas, y sin garantías legalmente vinculantes contra el uso de sistemas autónomos letales, la integración de IA en la guerra militar representará una ruptura fundamental en el orden internacional. La sociedad civil, los legisladores y las instituciones de derechos humanos enfrentan una ventana de tiempo cada vez más estrecha para exigir que los desarrolladores de estas tecnologías acepten condiciones de seguridad extremas antes de que estos sistemas sean desplegados en situaciones reales de combate.

---

## Fuente

Este análisis se basa en la columna de opinión de Sebastián Di Domenica en Canal E, disponible en el siguiente enlace:

https://youtu.be/UaqzeFcPraM?si=XmgrNDds25CjpGOr