Desbloquee el boletín White House Watch de forma gratuita
Su guía sobre lo que significa el segundo mandato de Trump para Washington, las empresas y el mundo
El secretario de Defensa de Estados Unidos, Pete Hegseth, ha amenazado con eliminar a Anthropic de la cadena de suministro de su departamento a menos que acepte aprobar el uso de su tecnología en todas las aplicaciones militares legales antes del viernes.
La amenaza es la última escalada en una disputa entre Anthropic y el departamento, provocada por la negativa del grupo AI a dar acceso ilimitado a sus modelos para uso militar clasificado, incluida la vigilancia interna y misiones mortales sin control humano directo.
Hegseth convocó al jefe de Anthropic, Dario Amodei, a Washington para una reunión el martes. Durante las tensas conversaciones, el secretario de Defensa amenazó con eliminar a Anthropic de la cadena de suministro del departamento o invocar la Ley de Producción de Defensa, una medida de la época de la Guerra Fría que permite al presidente controlar la industria nacional en interés de la defensa nacional, según una persona con conocimiento de las conversaciones.
Anthropic confirmó que la reunión tuvo lugar el martes. “Continuamos las conversaciones de buena fe sobre nuestra política de uso para garantizar que Anthropic pueda continuar apoyando la misión de seguridad nacional del gobierno de acuerdo con lo que nuestros modelos pueden hacer de manera confiable y responsable”, dijo en un comunicado.
Si no se llegan a un acuerdo sobre los términos antes del viernes por la noche, Anthropic sería eliminado de la cadena de suministro del Pentágono y podría desencadenar acciones legales en respuesta, según personas con conocimiento del asunto.
El desacuerdo amenaza con ampliar la brecha entre la administración del presidente Trump y uno de los principales laboratorios de inteligencia artificial de Estados Unidos.
Anthropic ha presionado para una regulación más estricta de la IA y Amodei ha advertido repetidamente sobre los riesgos de la tecnología. Mientras tanto, el presidente y sus asesores han promovido un marco regulatorio ligero.
El ‘zar’ de la IA de Trump, David Sacks, se burló de Anthropic calificándola de “despertada” y en octubre pasado acusó a la empresa de 380.000 millones de dólares de “ejecutar una sofisticada estrategia de captura regulatoria basada en infundir miedo”.
Pero el Pentágono sigue dependiendo de Anthropic para la tecnología de inteligencia artificial. Claude, de la compañía con sede en San Francisco, es el único modelo que trabaja en misiones clasificadas como resultado de la asociación de Anthropic con Palantir.
Ser excluido de la cadena de suministro del Pentágono es una medida extrema típicamente reservada para empresas vinculadas a adversarios extranjeros e implicaría que Hegseth considera la participación continua de la empresa como una amenaza. Pero al mismo tiempo, el despliegue del DPA sugeriría que la tecnología de Anthropic es fundamental para las operaciones del Pentágono.
Invocar la DPA permitiría al Pentágono hacer uso de las herramientas de Anthropic sin un acuerdo.
La ley otorga a la administración la capacidad de “asignar materiales, servicios e instalaciones” para la defensa nacional. Las administraciones de Trump y Biden utilizaron la ley para abordar la escasez de suministros médicos debido a la pandemia de coronavirus, y Trump también utilizó la DPA para ordenar un aumento en la producción estadounidense de minerales críticos.
Hegseth también está negociando con laboratorios de inteligencia artificial, incluidos Google, OpenAI y xAI de Elon Musk, para reemplazar a Anthropic e integrar su tecnología en sistemas militares clasificados.
Anthropic ha expresado especial preocupación por el uso de sus modelos para misiones letales que no cuentan con un ser humano al tanto, argumentando que incluso los modelos de IA de última generación aún no son lo suficientemente confiables como para confiar en esos contextos, según personas familiarizadas con las negociaciones.
También había presionado para que se establecieran nuevas reglas que regulen el uso de modelos de inteligencia artificial para la vigilancia nacional masiva, incluso cuando eso fuera legal según las reglas actuales, agregaron.
El Pentágono ha presionado para un uso ilimitado de la tecnología, con el objetivo de ampliar el conjunto de herramientas a su disposición para contrarrestar amenazas y emprender operaciones militares.
El departamento publicó su estrategia de IA el mes pasado, y Hegseth dijo en un memorando que “la guerra y el desarrollo de capacidades basados en la IA redefinirán el carácter de los asuntos militares durante la próxima década”.
Añadió que el ejército estadounidense “debe aprovechar su liderazgo” sobre los adversarios extranjeros para hacer que los soldados sean “más letales y eficientes”, y que la carrera de la IA está “impulsada por el ritmo acelerado” de la innovación proveniente del sector privado.
Una medida para eliminar a Anthropic de la cadena de suministro del departamento de defensa tendría ramificaciones significativas para el trabajo de seguridad nacional, así como para la empresa, que tiene un contrato de 200 millones de dólares con el departamento.
También afectaría a socios como Palantir, que utilizan los modelos de Anthropic.
Claude fue utilizado en la captura del líder venezolano Nicolás Maduro en enero por parte de Estados Unidos. Esa misión generó consultas por parte de Anthropic sobre la manera exacta en que se utilizó su modelo, según personas familiarizadas con el asunto.
Una persona con conocimiento de la reunión del martes dijo que Amodei había enfatizado a Hegseth que su compañía nunca se había opuesto a operaciones militares legítimas.
El departamento de defensa se negó a hacer comentarios.
