- O Departamento de Defesa dos EUA abriu uma ação judicial contra a Anthropic, alegando que a empresa representa um risco inaceitável para a segurança nacional ao poder configurar os seus sistemas segundo critérios próprios em vez de obedecer aos objetivos militares.
- Em julho anterior, foi anunciado um acordo de 200 milhões de dólares para usar a tecnologia da Anthropic em operações militares, mas o relacionamento deteriorou-se quando o Pentágono tentou impor condições sem restrições.
- A Anthropic integrou o seu modelo Claude em sistemas, incluindo ligações com a Palantir, e a tecnologia foi usada em missões militares, com autorizações em sistemas classificados.
- O CEO Dario Amodei defende duas linhas vermelhas: evitar vigilância doméstica em massa e impedir armas inteiramente autónomas, defendendo uma “constituição” de princípios, incluindo referências à Declaração Universal dos Direitos Humanos.
- A tensão entre a Anthropic e a Administração Trump agravou-se com ameaças de descontinuação de uso das ferramentas da empresa e com acusações de risco na cadeia de fornecimento, num contorno de controlo estatal sobre a IA.
O Pentágono abriu um processo contra Anthropic, empresa de IA cofundada por dissidentes da OpenAI, acusando-a de representar um risco inaceitável para a segurança nacional devido à possibilidade de definir critérios próprios nos seus sistemas. O inquérito surge num contexto de tensão entre a administração Biden e Anthropic sobre o uso da IA em operações militares e de vigilância.
Anthropic responde por ter assinado contratos com o Governo dos EUA, incluindo o Departamento de Defesa, para integrar a sua tecnologia em serviços estatais. O modelo Claude foi o primeiro a ser autorizado em sistemas classificados. A relação com o Pentágono ficou marcada pela integração com a Palantir, empresa de análise de dados ligada a Peter Thiel, e por controvérsias sobre o controlo de aplicações em missões militares.
O controlo da Anthropic sobre como a tecnologia é usada foi apontado pelo Departamento de Defesa como um problema de governabilidade. O processo sustenta que a cláusula de permitir ao fornecedor usar a IA para qualquer propósito legal, sem restrições, poderia influenciar operações e decisões de missões, configurando vulnerabilidades à manipulação dos sistemas.
Da negociação ao litígio
Em julho do ano anterior, foi anunciado um acordo de 200 milhões de dólares para uso militar da tecnologia. Logo depois, a Anthropic comunicou a extensão de Claude a serviços públicos. O debate entre as partes endureceu: o Pentágono queria uso sem restrições, enquanto o CEO da Anthropic, Dario Amodei, definiu limites claros, incluindo a rejeição de vigilância em massa de cidadãos e de armas totalmente autônomas.
A posição de Amodei
No que respeita à vigilância, Amodei defende o uso de IA para missões de espionagem, recusando o uso doméstico massivo de dados. Em relação às armas, reconhece que sistemas de IA actuais não possuem robustez suficiente para operações autônomas sem supervisão humana. A Anthropic fundamenta a sua atuação numa “constituição” de princípios baseados em direitos humanos, com o objetivo de assegurar uso responsável da tecnologia.
A trajetória de Amodei reflete o debate entre inovação tecnológica e responsabilidade ética. O fundador, que saiu da OpenAI, tem reiterado preocupações sobre o rumo da IA sob liderança de outros atores da indústria, defendendo limites para evitar impactos indevidos em democracia, privacidade e direitos civis.
Contexto e impacto
A Anthropic mantém a posição de desenvolver sistemas seguros e responsáveis, com foco em aplicações públicas e governamentais. O caso em tribunal envolve questões de governança de IA, supervisão governamental e a forma como contratos com agências federais devem delimitar o uso de tecnologia sensível. As decisões judiciais poderão influenciar futuras parcerias entre Estados e empresas de IA. As autoridades não divulgaram comentários adicionais. As fontes consultadas incluem documentos legais e comunicados oficiais da Anthropic.
Entre na conversa da comunidade