- Google DeepMind, Microsoft e xAI chegaram a acordo para partilhar versões preliminares dos seus sistemas de IA com o Governo dos EUA antes do lançamento público, para avaliação de riscos e segurança nacional.
- OpenAI e Anthropic já tinham feito acordo semelhante desde 2024, disponibilizando modelos considerados demasiado arriscados a um grupo restrito de empresas e organizações para melhorar a segurança dos sistemas.
- O processo envolve fornecer versões com salvaguardas reduzidas ou removidas, para avaliar capacidades como cibersegurança, mesmo quando estas salvaguardas visam impedir usos maliciosos.
- A Casa Branca está a ponderar reforçar a supervisão pública sobre ferramentas de IA sensíveis, incluindo uma possível ordem executiva para formalizar um mecanismo de revisão de modelos mais avançados.
- A divulgação de vulnerabilidades do Mythos, da Anthropic, levou o Governo a integrar uma variante do modelo em várias agências públicas, após tensões entre a Administração Trump e a startup.
O Governo dos EUA está a rever os modelos de IA desenvolvidos por Google DeepMind, Microsoft e xAI, a empresa de Elon Musk. O objetivo é permitir a avaliação de riscos de segurança nacional antes de lançarem versões públicas. As versões partilhadas terão salvaguardas simplificadas para facilitar a análise.
A OpenAI e a Anthropic já tinham adotado um regime semelhante desde 2024, disponibilizando modelos considerados de alto risco apenas a entidades selecionadas. A nova iniciativa expande esse modelo de supervisão para as maiores empresas de IA.
Contexto e motivações
O processo envolve fornecer versões de sistemas com menos proteções para avaliar capacidades, incluindo cibersegurança. As autoridades pretendem entender melhor potenciais utilizações mal-intencionadas e impactos na segurança pública e na infraestrutura crítica.
Relevância política e operacional
Chris Fall, responsável pelo programa de avaliação, reforça a importância de medidas científicas independentes para compreender os modelos de IA fronteira. A Casa Branca discute agora uma possível ordem executiva para formalizar um mecanismo de revisão mais abrangente.
Cenário atual e consequências
A discussão acontece num momento em que o governo americano pondera reforçar a supervisão pública sobre ferramentas de IA sensíveis. A iniciativa surge num contexto de tensões entre políticas de governo anteriores e a atuação de empresas privadas no setor.
Antecedentes
AAnthropic divulgou recentemente o Mythos, um modelo genérico que mostrou vulnerabilidades graves em testes de cibersegurança. A empresa alertou sobre potenciais danos econômicos e de segurança, caso essas falhas se aproveitem amplamente.
Impactos institucionais
O Mythos já foi integrado por várias agências federais, incluindo Defesa, Tesouro, Segurança Interna e Justiça. A medida segue tensões entre a Administração Trump e a indústria de IA, sobretudo quanto ao uso militar de tecnologia.
Entre na conversa da comunidade