- O Pentágono informou oficialmente a Anthropic de que a empresa e o seu produto Claude são considerados risco para a cadeia de abastecimento, com efeitos imediatos.
- A medida, inédita, surge na disputa entre o governo dos EUA e a Anthropic e pode obrigar outros contratantes públicos a deixar de usar Claude.
- O presidente Donald Trump ordenou que as forças armadas deixem de usar Claude em seis meses; o CEO da Anthropic, Dario Amodei, disse que vai contestar a decisão em tribunal.
- A Lockheed Martin já mencionou que procurará outros fornecedores de modelos de linguagem de grande dimensão, enquanto a Microsoft afirmou que pode continuar a trabalhar com a Anthropic em projetos não relacionados com a defesa.
- Críticos e ex-funcionários de defesa expressaram preocupação com o impacto da classificação na indústria de IA dos EUA e na capacidade tecnológica militar.
A administração norte-americana classificou a Anthropic como risco para a cadeia de abastecimento, numa medida sem precedentes. A decisão pode levar outros contratantes do Estado a abandonar o uso do Claude, o chatbot de IA da empresa.
O Pentágono informou oficialmente a liderança da Anthropic de que a empresa e os seus produtos representam risco imediato para a cadeia de abastecimento. A medida surge após acusações de segurança nacional feitas por Trump e Hegseth.
Trump e Hegseth anunciaram sanções potenciais na última sexta-feira, na véspera de tensões com o Irão. O CEO da Anthropic, Dario Amodei, recusou-se a ceder, citando riscos de vigilância em massa e de armas autónomas.
Amodei afirmou que a decisão não tem base legal e avisou que a Anthropic irá contestá-la em tribunal. O Pentágono garantiu que a doutrina visa preservar o uso legal de tecnologia pelas forças armadas.
As autoridades afirmaram que as exceções propostas pela Anthropic para limitar uso em vigilância e armas autónomas eram inadequadas para decisões operacionais. Conversas com o Pentágono teriam tido progresso recente.
Trump determinou um prazo de seis meses para as forças armadas deixarem de usar o Claude. A Anthropic diz que é crucial manter ferramentas úteis para operações em campo.
Alguns contratantes já cortaram relações com a Anthropic. A Lockheed Martin disse que seguirá orientações oficiais e buscará outros fornecedores de modelos de linguagem.
A empresa indicou que os impactos deverão ser limitados, pois não depende de um único fornecedor de LLM. Não está claro como o Departamento de Defesa aplicará a nova classificação.
A Microsoft informou que pode continuar projetos não ligados à defesa com a Anthropic, após análise jurídica interna. A aplicação prática da medida permanece por definir.
Reações e contexto
A decisão suscitou críticas a partir de senadores e antigos responsáveis pela defesa. A senadora Kirsten Gillibrand chamou a medida de uso imprudente de ferramenta para lidar com tecnologia sensível.
Um grupo de ex-líderes de defesa enviou carta aos legisladores, reagindo com preocupação. Suspeitam de precedentes prejudiciais ao setor tecnológico americano.
No front de consumo, a Anthropic registou aumento de utilizadores. A empresa disse que mais de um milhão de pessoas aderiu ao Claude diariamente, superando rivais como ChatGPT e Gemini.
Pouco tempo depois, a OpenAI anunciou acordo para substituir o Claude por ChatGPT em ambientes militares classificados, sublinhando tensões entre as duas empresas de IA.
Amodei reconheceu o impacto interno na Anthropic e pediu desculpas por notas internas criticas à OpenAI, associando a reação da empresa a uma disputa pública.
Entre na conversa da comunidade