El Departamento de Defensa de Estados Unidos ha intensificado su enfrentamiento con la empresa de inteligencia artificial Anthropic, exigiendo que la compañía flexibilice las restricciones de uso de su modelo Claude en entornos militares antes de una fecha límite establecida esta semana.
Según reportes publicados entre el 25 y 26 de febrero por The Information, Axios, TechPolicy.Press y Breaking Defense, el Pentágono habría otorgado a Anthropic un plazo hasta el viernes para modificar o retirar ciertas limitaciones impuestas a su modelo de IA, bajo la advertencia de posibles consecuencias contractuales si no se alcanza un acuerdo.
El origen del conflicto
El núcleo de la disputa radica en las políticas de uso y salvaguardas éticas implementadas por Anthropic.
La empresa, conocida por su enfoque “safety-first”, ha mantenido restricciones explícitas que limitan el uso de su tecnología en:
- Vigilancia masiva doméstica
- Desarrollo de sistemas de armas totalmente autónomas sin supervisión humana
- Aplicaciones militares que carezcan de controles adecuados
El Pentágono, por su parte, sostiene que si una tecnología es integrada en sistemas de defensa nacional, debe estar disponible para “todos los usos legales” autorizados por el gobierno estadounidense, sin limitaciones unilaterales impuestas por el proveedor privado.
Presión contractual y posible escalada
De acuerdo con Axios, el Secretario de Defensa Pete Hegseth habría solicitado formalmente a la dirección de Anthropic revisar sus políticas antes del viernes, en lo que algunos analistas describen como un ultimátum directo.
Breaking Defense informó que el Departamento de Defensa estaría evaluando mecanismos contractuales que podrían incluir la reconsideración del estatus de Anthropic como proveedor estratégico si no se modifica la política actual.
Algunos reportes mencionan incluso la posibilidad -aunque no confirmada oficialmente- de recurrir a herramientas legales extraordinarias si el desacuerdo persiste.
Una disputa con implicaciones mayores
El conflicto ha sido descrito por TechPolicy.Press como uno de los primeros enfrentamientos públicos de alto perfil entre una empresa líder en IA y el aparato de defensa estadounidense respecto a los límites éticos del uso militar de modelos fundacionales.
La situación plantea preguntas clave:
- ¿Puede una empresa privada imponer límites éticos a contratos gubernamentales de defensa?
- ¿Hasta qué punto los desarrolladores de IA deben controlar el uso final de su tecnología?
- ¿Está emergiendo una nueva tensión estructural entre seguridad nacional y gobernanza algorítmica?
Un precedente para la industria
El resultado de esta disputa podría sentar un precedente para futuras colaboraciones entre el sector privado de inteligencia artificial y agencias de defensa.
A medida que los modelos avanzados se integran en análisis estratégico, inteligencia, simulaciones y apoyo a la toma de decisiones, el equilibrio entre control corporativo y autoridad estatal se vuelve cada vez más delicado.
Más allá del caso específico de Anthropic, este episodio marca un momento significativo en la evolución de la relación entre tecnología avanzada y poder militar.
Fuentes
Breaking Defense. “Pentagon gives Anthropic Friday deadline to loosen AI policy”.
The Information (25–26 de febrero). “Anthropic’s Standoff With the Pentagon Over AI Safeguards”.
Axios. “Hegseth gives Anthropic until Friday to back down on AI safeguards”.
TechPolicy.Press. “A Timeline of the Anthropic-Pentagon Dispute”.