Em Alta futeboldesportoPortugalinternacionaisgoverno

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Anthropic e OpenAI recrutam peritos em armas para evitar uso catastrófico

Anthropic e OpenAI recrutam peritos em armas para evitar uso catastrófico da IA e reforçar a gestão de riscos do sistema

FOTO DE ARQUIVO - Site e aplicação móvel da Anthropic surgem nesta foto, em Nova Iorque, a 5 de julho de 2024
0:00
Carregando...
0:00
  • Anthropic e OpenAI estão a recrutar especialistas em armas para evitar o uso indevido das suas IA, incluindo conhecimentos em químicos e explosivos.
  • A Anthropic procura um especialista em políticas sobre armas químicas e explosivos, com pelo menos cinco anos de experiência, para desenhar mecanismos de proteção e coordenar respostas rápidas a solicitações sobre armas e explosivos.
  • A OpenAI anunciou vagas para integrar a equipa Preparedness, que monitoriza riscos catastróficos, e para o cargo de Threat Modeler, responsável por identificar, modelizar e prever riscos de fronteira da IA.
  • Estas contratações surgem após a Anthropic ter movido ação judicial contra o governo dos EUA, que a classificou como risco para a cadeia de abastecimento; o Departamento de Guerra exigiu acesso ao chatbot Claude.
  • Pouco depois, a OpenAI assinou um acordo com o Departamento de Guerra para usar IA em ambientes classificados, com regras estritas que proíbem vigilância em massa e armas autónomas.

Anthropic e OpenAI estão a recrutar especialistas em armas, explosivos e riscos químicos para mitigar o uso indevido das suas tecnologias de IA. Os anúncios foram publicados pelas duas empresas, destacando a necessidade de reforçar a segurança.

A Anthropic procura um especialista em políticas sobre armas químicas e explosivos. A função envolve conceber e supervisionar mecanismos de proteção que orientem as respostas de IA a pedidos sensíveis, bem como coordenar respostas rápidas a situações de escalada.

A OpenAI anunciou a busca por investigadores para a equipa Preparedness, que acompanha riscos catastróficos associados a modelos avançados de IA. Além disso, procura um Threat Modeler para modelizar riscos de fronteira e ligar perspetivas técnicas, de governação e de políticas.

Recrutamento e funções

As vagas exigem experiência mínima de cinco anos em defesa contra armas químicas e explosivos, incluindo conhecimentos de dispositivos de dispersão radiológica. Os cargos visam criar novas avaliações de risco que orientem lançamentos de grande impacto.

Contexto e desdobramentos

As contratações surgem numa altura em que a Anthropic enfrenta uma ação judicial dos EUA, que a classificou como risco para a cadeia de abastecimento. O governo pode bloquear contratos ou instruir departamentos a não trabalhar com a empresa.

Dario Amodei, CEO da Anthropic, afirmou que contratos com o Departamento de Guerra não devem incluir cláusulas que permitam vigilância em massa ou uso em armas plenamente autónomas. Em resposta, a OpenAI assinou um acordo semelhante com o DOW para uso da IA em ambientes classificados, com restrições rigorosas.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais