- O secretário da defesa dos Estados Unidos, Pete Hegseth, apresentou um ultimato a Dario Amodei: acesso irrestrito ao Claude ou fim do uso dos seus produtos pelas agências federais; Amodei recusou e, horas depois, a OpenAI fechou acordo com o Pentágono.
- A Anthropic opõe-se ao uso para vigilância em massa e a armas sem supervisão humana; o Claude já estaria integrado nos sistemas militares através da Palantir, o que a empresa afirma não aceitar.
- O CEO da Anthropic não alterou a posição porquê, mas sim o enquadramento político: a cláusula de responsabilidade tornou-se uma guerra ideológica; as decisões operacionais, segundo o fundador, pertencem ao governo.
- No mesmo dia, Altman prometeu, no X, preferir ser preso a cumprir uma ordem inconstitucional; funcionários protestaram, com o movimento QuitGPT, e muitos cancelaram subscrições do ChatGPT para usar Claude.
- Os danos atuais da IA persistem: em 2023 havia 500 mil deepfakes online, em 2025 já são mais de 8 milhões; há fraudes financeiras com vozes e rostos gerados por IA, sublinhando a necessidade de uma avaliação realista da IA como ferramenta poderosa, mas falível.
Na última sexta-feira de fevereiro, o secretário da defesa dos EUA, Pete Hegseth, exigiu acesso irrestrito ao Claude, da Anthropic, sob pena de cessar uso de todos os produtos federais. Dario Amodei recusou. Horas depois, a OpenAI chegou a acordo com o Pentágono.
A Anthropic, com sede em São Francisco, rejeita que o Claude seja usado para vigilância em massa ou para alimentar armas sem supervisão humana. A empresa argumenta que os sistemas de IA atuais podem alucinar, produzindo informações falsas com convicção.
A tensão reflete uma divergência entre visões sobre IA: alguns veem o potencial de cura de doenças e redução da pobreza, outros temem consequências negativas para a humanidade. Enquanto isso, surgem relatos de integração do Claude em sistemas militares via Palantir.
Altman, CEO da OpenAI, prometeu resistir a ordens inconstitucionais, mencionando que decisões operacionais cabem ao governo. O impacto interno gerou resistência entre funcionários, com protestos promovidos por movimentos de rejeição ao uso militar.
Dias após, surgiram relatos de funcionários que afirmam ter questionado decisões operacionais e de possíveis discrepâncias em avaliações de ações externas. A discussão levou a uma febril campanha de cancelamento de serviços em favor do Claude.
Os impactos da IA já são observáveis: relatos de deepfakes aumentaram de 500 mil em 2023 para mais de 8 milhões em 2025, com maior incidência de pornografia não consensual. Crimes de fraude com vozes geradas atingem valores significativos.
A cobertura pública tende a priorizar riscos existenciais da IA, em detrimento dos danos atuais. Entre eles, desinformação, cibercrime e uso indevido de tecnologias de reconhecimento facial e geração de conteúdos.
O debate técnico continua: a IA é uma ferramenta poderosa, mas falível. Especialistas pedem avaliação realista do estado atual da IA, distinguindo entre riscos reais e promessas de cenários extremos que atraem financiamento.
Entre na conversa da comunidade