OpenAI sella un acuerdo con el Pentágono poco después de que la Administración Trump vetara a Anthropic
Funcionarios del Pentágono aceptaron que algunos empleados de OpenAI trabajen junto a personal gubernamental en proyectos clasificados.

OpenAI
OpenAI, la empresa detrás de ChatGPT, anunció este viernes que ha asegurado un acuerdo con el Pentágono para suministrar herramientas de inteligencia artificial destinadas a su uso en sistemas clasificados. “En todas nuestras interacciones, el Departamento de Guerra mostró un profundo respeto por la seguridad y un deseo de asociarse para lograr el mejor resultado posible”, escribió el director ejecutivo de OpenAI, Sam Altman, en sus redes sociales, horas después de subrayar que OpenAI comparte principios similares y afirmar que la compañía no desea que sus modelos se utilicen para la vigilancia masiva doméstica ni para armas autónomas.
Altman también explicó que OpenAI aseguró la autoridad para incorporar salvaguardas en sus sistemas destinadas a impedir usos que la empresa rechaza. “Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva doméstica y la responsabilidad humana en el uso de la fuerza, incluso en sistemas de armas autónomas. El Departamento de Guerra está de acuerdo con estos principios, los refleja en la ley y en la política, y los incorporamos en nuestro acuerdo”, afirmó, para luego revelar que funcionarios del Pentágono aceptaron que algunos empleados de OpenAI trabajen junto a personal gubernamental en proyectos clasificados.
El anuncio se produjo apenas horas después de que el presidente Donald Trump ordenara a las agencias federales dejar de utilizar productos de IA desarrollados por su competidor Anthropic. Las conversaciones se desarrollaron en medio de un enfrentamiento entre dicha empresa y el Departamento de Defensa. Funcionarios del gobierno presuntamente habrían presionado a Anthropic para que otorgara acceso amplio a sus sistemas, sin las restricciones que la empresa buscaba mantener, advirtiendo que una negativa podría poner en riesgo sus contratos gubernamentales. Anthropic sostuvo que no permitiría que su tecnología se utilizara para la vigilancia doméstica de estadounidenses ni para armas letales completamente autónomas.
El viernes por la noche, el secretario de Defensa, Pete Hegseth, calificó a Anthropic como un “riesgo en la cadena de suministro para la seguridad nacional” después de que las negociaciones fracasaran en torno a las condiciones que regirían el uso de sus sistemas de IA.