Anuncios

La tensa relación entre las grandes empresas de inteligencia artificial y el sector militar estadounidense ha dado un giro inesperado.

Dario Amodei, CEO de Anthropic, ha regresado a la mesa de negociaciones con el Departamento de Defensa tras el colapso total de las conversaciones ocurrido el pasado viernes.

Este acercamiento se produce días después de que la administración Trump emitiera una directiva para prohibir el uso de las herramientas de Anthropic en agencias federales, citándolas como un “riesgo para la cadena de suministro” nacional.

El punto de conflicto central sigue siendo la cláusula de uso ético. Anthropic, conocida por su enfoque en la seguridad y la alineación de la IA, se ha negado a permitir que sus modelos Claude fueran utilizados para propósitos de vigilancia masiva de ciudadanos estadounidenses o en el desarrollo de sistemas de armamento totalmente autónomos.

Por su parte, el Pentágono insiste en que las empresas tecnológicas deben permitir el uso de su software para “todos los propósitos legales” sin restricciones impuestas por los fabricantes.

La situación actual está marcada por una carrera armamentista de IA donde el Pentágono busca integrar modelos avanzados en sus operaciones logísticas y estratégicas. La reanudación de las charlas sugiere que ambas partes han encontrado un espacio para el compromiso.

Anuncios


Curiosamente, Sam Altman, CEO de OpenAI (principal competidor de Anthropic), ha intervenido públicamente a favor de su rival, instando al Departamento de Defensa a no clasificar a Anthropic como un riesgo de seguridad y sugiriendo que se les ofrezcan términos similares a los acordados con OpenAI.

Lo anunciado en esta “vista previa de ingeniería” de las negociaciones es la posibilidad de eliminar frases ambiguas sobre el “análisis de datos adquiridos masivamente”, que era el punto de mayor fricción para Amodei.

Si se alcanza un acuerdo, el ejército de EE.UU. recuperaría el acceso oficial a uno de los modelos de IA más capaces del mundo, mientras que Anthropic evitaría el estigma de ser considerada una amenaza a la seguridad nacional, lo que podría haber arruinado su negocio corporativo global.

Este episodio subraya el dilema de las startups de IA: cómo mantener sus principios éticos sin ser excluidas de los mayores contratos gubernamentales del mundo. El impacto probable es la creación de una versión específica de “Claude para Defensa” con salvaguardas diferenciadas de la versión comercial.

Debemos observar si este acuerdo sienta las bases para una regulación formal sobre la responsabilidad de la IA en contextos de combate y vigilancia estatal.