WASHINGTON.– El secretario de Defensa norteamericano, Pete Hegseth, amenazó a la empresa de inteligencia artificial Anthropic con invocar poderes especiales para obligarla a compartir con las Fuerzas Armadas su novedosa tecnología en nombre de la seguridad nacional, y le dio un ultimátum hasta el viernes.
Pero según informaron personas familiarizadas con las conversaciones en curso, Anthropic advirtió que podría abandonar las negociaciones -y su contrato de 200 millones de dólares con el Departamento de Defensa- si no se abordan las preocupaciones de la empresa sobre el uso de su tecnología para armas autónomas o vigilancia masiva.
Anthropic es la primera empresa en integrar su tecnología en las redes clasificadas del Pentágono y se ha posicionado fuertemente para ser un actor clave en la seguridad nacional.
En una reunión con Hegseth el martes, Dario Amodei, cofundador y director ejecutivo de la compañía, se mantuvo firme en que su modelo de inteligencia artificial, Claude, no debería utilizarse para impulsar armas autónomas ni para realizar vigilancia masiva de estadounidenses, según las personas familiarizadas con las conversaciones.
En las últimas semanas, la tensión entre la empresa y el Pentágono fue aumentando debido a la utilización de la IA de Anthropic durante la redada para capturar al presidente venezolano Nicolás Maduro. Funcionarios de defensa respondieron con rapidez, sugiriendo que si Anthropic no permitía al Pentágono aplicar la IA como desea, dentro de los límites legales, la empresa sería considerada un riesgo para la cadena de suministro, lo que le costaría a ella y a cualquier empresa que subcontratara su IA futuras oportunidades de negocio.
En la reunión del martes, Hegseth fue más allá, afirmando que Anthropic podría estar sujeta a la Ley de Producción de Defensa (DPA), que permite al gobierno obtener el control de empresas y sus productos, en nombre de la seguridad nacional. La DPA se utilizó durante la pandemia de Covid-19 para abordar la escasez de suministros médicos.
En general, la reunión fue seria pero respetuosa, según las fuentes, y Hegseth elogió la tecnología de Anthropic. De hecho, el secretario afirmó que quería seguir trabajando con la empresa, pero amenazó con rescindir su contrato para finales de semana.
Amodei argumentó que ninguna de las limitaciones que busca la empresa afectaría el trabajo del departamento, añadió.
“Durante la conversación, Darío expresó su agradecimiento por el trabajo del Departamento y al Secretario por su servicio”, declaró Anthropic en un comunicado. “Continuamos manteniendo conversaciones de buena fe sobre nuestra política de uso para garantizar que Anthropic pueda seguir apoyando la misión de seguridad nacional del gobierno, de acuerdo con lo que nuestros modelos pueden hacer de forma fiable y responsable”.
La reunión se produce tras la escalada de críticas a Anthropic por parte de funcionarios del Pentágono.
Hegseth y su equipo han insistido en las últimas semanas en que el ejército necesita plena libertad para utilizar las herramientas de IA como considere oportuno, limitadas únicamente por la ley y no por las restricciones impuestas por las empresas que fabrican los sistemas. Funcionarios de defensa afirman que otras empresas líderes han accedido a estas condiciones, al menos para trabajos no clasificados, lo que contrasta con la decisión de Anthropic.
Anthropic ha intentado hasta ahora mantener un equilibrio, mostrándose dispuesta a colaborar con el Pentágono y describiendo la IA como una tecnología vital para que los países democráticos puedan defenderse.
Sin embargo, poco después de que Hegseth expusiera su punto de vista en una directiva interna, Amodei publicó un ensayo en el que advirtió sobre los peligros de las armas totalmente autónomas y las herramientas de vigilancia masiva. Escribió que, si bien cabría esperar que los países democráticos impusieran límites al uso de dichos sistemas, “algunas de estas salvaguardas ya se están erosionando gradualmente en algunas democracias”.
El Pentágono viene intensificando sus esfuerzos para integrar la IA en sus sistemas de armas, impulsado por la competencia con China -que se apresura a adquirir tecnología de IA para su ejército- y nuevos peligros como los misiles hipersónicos superrápidos, que superan la capacidad humana de reacción.
Los conflictos en Ucrania y Gaza mostraron un adelanto del papel que podría desempeñar la IA en una guerra futura, con el uso generalizado de drones semiautónomos baratos y herramientas que analizan grandes cantidades de información para identificar objetivos que atacar.
Por Tara Copp y Ian Duncan