Em Alta futeboldesportoPortugalinternacionaispessoas

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Pentágono mantém disputa com Anthropic sobre IA que promove amor e graça

Pentágono processa Anthropic por risco à segurança nacional, em meio a impasse sobre uso militar e vigilância; decisão pode limitar contratos governamentais

Dario Amodei quis traçar linhas vermelhas no uso de IA para fins militares
0:00
Carregando...
0:00
  • O Departamento de Defesa dos EUA abriu uma ação judicial contra a Anthropic, alegando que a empresa representa um risco inaceitável para a segurança nacional ao poder configurar os seus sistemas segundo critérios próprios em vez de obedecer aos objetivos militares.
  • Em julho anterior, foi anunciado um acordo de 200 milhões de dólares para usar a tecnologia da Anthropic em operações militares, mas o relacionamento deteriorou-se quando o Pentágono tentou impor condições sem restrições.
  • A Anthropic integrou o seu modelo Claude em sistemas, incluindo ligações com a Palantir, e a tecnologia foi usada em missões militares, com autorizações em sistemas classificados.
  • O CEO Dario Amodei defende duas linhas vermelhas: evitar vigilância doméstica em massa e impedir armas inteiramente autónomas, defendendo uma “constituição” de princípios, incluindo referências à Declaração Universal dos Direitos Humanos.
  • A tensão entre a Anthropic e a Administração Trump agravou-se com ameaças de descontinuação de uso das ferramentas da empresa e com acusações de risco na cadeia de fornecimento, num contorno de controlo estatal sobre a IA.

O Pentágono abriu um processo contra Anthropic, empresa de IA cofundada por dissidentes da OpenAI, acusando-a de representar um risco inaceitável para a segurança nacional devido à possibilidade de definir critérios próprios nos seus sistemas. O inquérito surge num contexto de tensão entre a administração Biden e Anthropic sobre o uso da IA em operações militares e de vigilância.

Anthropic responde por ter assinado contratos com o Governo dos EUA, incluindo o Departamento de Defesa, para integrar a sua tecnologia em serviços estatais. O modelo Claude foi o primeiro a ser autorizado em sistemas classificados. A relação com o Pentágono ficou marcada pela integração com a Palantir, empresa de análise de dados ligada a Peter Thiel, e por controvérsias sobre o controlo de aplicações em missões militares.

O controlo da Anthropic sobre como a tecnologia é usada foi apontado pelo Departamento de Defesa como um problema de governabilidade. O processo sustenta que a cláusula de permitir ao fornecedor usar a IA para qualquer propósito legal, sem restrições, poderia influenciar operações e decisões de missões, configurando vulnerabilidades à manipulação dos sistemas.

Da negociação ao litígio

Em julho do ano anterior, foi anunciado um acordo de 200 milhões de dólares para uso militar da tecnologia. Logo depois, a Anthropic comunicou a extensão de Claude a serviços públicos. O debate entre as partes endureceu: o Pentágono queria uso sem restrições, enquanto o CEO da Anthropic, Dario Amodei, definiu limites claros, incluindo a rejeição de vigilância em massa de cidadãos e de armas totalmente autônomas.

A posição de Amodei

No que respeita à vigilância, Amodei defende o uso de IA para missões de espionagem, recusando o uso doméstico massivo de dados. Em relação às armas, reconhece que sistemas de IA actuais não possuem robustez suficiente para operações autônomas sem supervisão humana. A Anthropic fundamenta a sua atuação numa “constituição” de princípios baseados em direitos humanos, com o objetivo de assegurar uso responsável da tecnologia.

A trajetória de Amodei reflete o debate entre inovação tecnológica e responsabilidade ética. O fundador, que saiu da OpenAI, tem reiterado preocupações sobre o rumo da IA sob liderança de outros atores da indústria, defendendo limites para evitar impactos indevidos em democracia, privacidade e direitos civis.

Contexto e impacto

A Anthropic mantém a posição de desenvolver sistemas seguros e responsáveis, com foco em aplicações públicas e governamentais. O caso em tribunal envolve questões de governança de IA, supervisão governamental e a forma como contratos com agências federais devem delimitar o uso de tecnologia sensível. As decisões judiciais poderão influenciar futuras parcerias entre Estados e empresas de IA. As autoridades não divulgaram comentários adicionais. As fontes consultadas incluem documentos legais e comunicados oficiais da Anthropic.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais