Em Alta futeboldesportoPortugalinternacionaispessoas

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Anthropic processa Defesa por rótulo de risco na cadeia de abastecimento

Anthropic processa o Departamento de Defesa dos Estados Unidos após o Pentágono classificar Claude como risco na cadeia de abastecimento, levando à retirada da tecnologia pelo departamento

Páginas do site da Anthropic e logótipos da empresa surgem num ecrã de computador em Nova Iorque, quinta-feira, 26 de fevereiro de 2026
0:00
Carregando...
0:00
  • A Anthropic processou o Departamento de Defesa dos EUA depois de o Pentágono classificar a empresa como risco para a cadeia de abastecimento, obrigando a deixar de usar o Claude no DoD.
  • A queixa alega violação de direitos e pede a reversão do rótulo, bem como a suspensão da aplicação da classificação pelas agências federais.
  • A decisão de classificar a Anthropic como risco foi anunciada na semana passada, com sanções que impedem o uso do Claude em casos ligados ao DoD.
  • O Presidente Donald Trump afirmou que iria ordenar às agências federais a deixar de utilizar o Claude, com seis meses para a retirada gradual de um produto amplamente integrado em sistemas militares.
  • A Anthropic tem um contrato de 200 milhões de dólares com o DoD, assinado em julho, para desenvolver protótipos de IA destinados a reforçar a segurança nacional.

O Pentágono classificou a Anthropic como risco para a cadeia de abastecimento, obrigando entidades vinculadas a descontinuarem o uso do Claude no âmbito do Departamento de Defesa. A decisão ocorreu na semana passada, influenciando operações e contratos militares.

A Anthropic acionou o DoD em tribunal na segunda-feira, após o governo ter feito a classificação anterior. A ação busca suspender o rótulo e impedir a aplicação da classificação pelas agências federais.

O processo surge num contexto de desacordo sobre se os militares deveriam ter acesso irrestrito aos sistemas de IA da empresa, com críticas sobre a forma como a classificação foi comunicada e aplicada.

O presidente-executivo da Anthropic, Dario Amodei, afirmou no blog da empresa que a decisão carece de base legal e que a empresa pretende contestá-la judicialmente, defendendo a legalidade da expressão protegida da empresa.

O Departamento de Defesa não comentou o caso, seguindo a prática de não comentar litígios, segundo a AP. A agência tem afirmado que o uso da tecnologia deve respeitar todos os usos legais.

A Anthropic informou ter procurado limitar o emprego do Claude a áreas sensíveis, como vigilância de massas e armas autônomas, para evitar aplicações potencialmente perigosas.

O Secretário da Defesa, Pete Hegseth, e outros responsáveis reiteraram publicamente que a Anthropic deve aceitar os usos legais do Claude e advertiram sancões caso não cumpra com as exigências governamentais.

A Anthropic desenvolve o Claude e é uma das últimas entre as suas rivais a não disponibilizar a tecnologia para uma rede interna das forças armadas dos EUA.

Em julho do ano passado, a Anthropic assinou um contrato de cerca de 200 milhões de dólares com o DoD para desenvolver protótipos de capacidades avançadas de IA orientadas à segurança nacional.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais