Voz media US Voz.us

El Pentágono se apoyó en la IA Claude, de Anthropic, para realizar la operación de captura de Maduro

Para el Pentágono la IA parece ofrecer soluciones y ventajas en el procesamiento de datos, la planificación operativa y la velocidad de análisis.

Esta fotografía muestra una figura delante del logotipo del asistente de inteligencia artificial

Esta fotografía muestra una figura delante del logotipo del asistente de inteligencia artificial "Claude"AFP

Emmanuel Alejandro Rondón

La inteligencia artificial ya es una realidad operativa dentro del aparato militar estadounidense. De acuerdo con una exclusiva del Wall Street Journal, el Pentágono empleó el modelo Claude —desarrollado por la firma Anthropic— en la misión que culminó con la captura del dictador Nicolás Maduro el pasado mes de enero, una operación que habría incluido ataques aéreos contra varios objetivos militares en la capital Caracas y otras partes de Venezuela.

Aunque no se han revelado detalles específicos sobre el papel que desempeñó la tecnología durante la ofensiva, el reporte sugiere que el uso de modelos avanzados de IA comienza a consolidarse como parte del engranaje estratégico del Departamento de Defensa.

Ni Anthropic ni el Pentágono ofrecieron comentarios directos sobre la operación al WSJ o al público. Un portavoz de la empresa tecnológica se limitó a señalar que no pueden confirmar si su sistema fue utilizado en misiones concretas —clasificadas o no— y recordó que cualquier implementación debe respetar sus políticas internas y normas de uso.

Dichas normas, al menos en teoría, prohíben que el modelo sea utilizado para facilitar actos violentos, desarrollar armamento o realizar vigilancia.

El despliegue de Claude habría sido posible gracias a la alianza entre Anthropic y Palantir Technologies, compañía conocida por su estrecha relación con agencias de defensa y cuerpos federales de seguridad. Según el WSJ, las dudas dentro de Anthropic sobre el uso militar de su tecnología han llegado a generar tensiones con el Gobierno federal, hasta el punto de que algunos funcionarios habrían evaluado revisar un contrato que podría alcanzar los 200 millones de dólares.

El caso también refleja un debate más amplio dentro de la industria tecnológica. Dario Amodei, director ejecutivo de Anthropic, ha advertido en distintas ocasiones sobre los riesgos que implica el uso de inteligencia artificial en operaciones letales autónomas y en sistemas de vigilancia doméstica. Su postura —más cercana a la regulación que a la expansión sin límites— lo ha distanciado de otros líderes del sector y ha provocado fricciones con quienes defienden un enfoque más flexible para acelerar la adopción de estas herramientas.

Para el Pentágono, sin embargo, la IA parece ofrecer soluciones y ventajas en el procesamiento de datos, la planificación operativa y la velocidad de análisis. No es casual que el Departamento de Guerra ya esté trabajando con varias empresas del sector para adaptar modelos capaces de asistir a millones de efectivos en tareas como la revisión de documentos, la generación de informes y el apoyo a investigaciones.

tracking