Em Alta futeboldesportoPortugalinternacionaisgoverno

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Governo dos EUA revê modelos da Google, Microsoft e xAI

Governo americano expande avaliação de IA de Google DeepMind, Microsoft e xAI, alinhando-se a OpenAI e Anthropic para salvaguardar a segurança nacional

A Google DeepMind é uma das empresas que aceitou o processo de revisão
0:00
Carregando...
0:00
  • Google DeepMind, Microsoft e xAI chegaram a acordo para partilhar versões preliminares dos seus sistemas de IA com o Governo dos EUA antes do lançamento público, para avaliação de riscos e segurança nacional.
  • OpenAI e Anthropic já tinham feito acordo semelhante desde 2024, disponibilizando modelos considerados demasiado arriscados a um grupo restrito de empresas e organizações para melhorar a segurança dos sistemas.
  • O processo envolve fornecer versões com salvaguardas reduzidas ou removidas, para avaliar capacidades como cibersegurança, mesmo quando estas salvaguardas visam impedir usos maliciosos.
  • A Casa Branca está a ponderar reforçar a supervisão pública sobre ferramentas de IA sensíveis, incluindo uma possível ordem executiva para formalizar um mecanismo de revisão de modelos mais avançados.
  • A divulgação de vulnerabilidades do Mythos, da Anthropic, levou o Governo a integrar uma variante do modelo em várias agências públicas, após tensões entre a Administração Trump e a startup.

O Governo dos EUA está a rever os modelos de IA desenvolvidos por Google DeepMind, Microsoft e xAI, a empresa de Elon Musk. O objetivo é permitir a avaliação de riscos de segurança nacional antes de lançarem versões públicas. As versões partilhadas terão salvaguardas simplificadas para facilitar a análise.

A OpenAI e a Anthropic já tinham adotado um regime semelhante desde 2024, disponibilizando modelos considerados de alto risco apenas a entidades selecionadas. A nova iniciativa expande esse modelo de supervisão para as maiores empresas de IA.

Contexto e motivações

O processo envolve fornecer versões de sistemas com menos proteções para avaliar capacidades, incluindo cibersegurança. As autoridades pretendem entender melhor potenciais utilizações mal-intencionadas e impactos na segurança pública e na infraestrutura crítica.

Relevância política e operacional

Chris Fall, responsável pelo programa de avaliação, reforça a importância de medidas científicas independentes para compreender os modelos de IA fronteira. A Casa Branca discute agora uma possível ordem executiva para formalizar um mecanismo de revisão mais abrangente.

Cenário atual e consequências

A discussão acontece num momento em que o governo americano pondera reforçar a supervisão pública sobre ferramentas de IA sensíveis. A iniciativa surge num contexto de tensões entre políticas de governo anteriores e a atuação de empresas privadas no setor.

Antecedentes

AAnthropic divulgou recentemente o Mythos, um modelo genérico que mostrou vulnerabilidades graves em testes de cibersegurança. A empresa alertou sobre potenciais danos econômicos e de segurança, caso essas falhas se aproveitem amplamente.

Impactos institucionais

O Mythos já foi integrado por várias agências federais, incluindo Defesa, Tesouro, Segurança Interna e Justiça. A medida segue tensões entre a Administração Trump e a indústria de IA, sobretudo quanto ao uso militar de tecnologia.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais