- Anthropic e OpenAI estão a recrutar especialistas em armas para evitar o uso indevido das suas IA, incluindo conhecimentos em químicos e explosivos.
- A Anthropic procura um especialista em políticas sobre armas químicas e explosivos, com pelo menos cinco anos de experiência, para desenhar mecanismos de proteção e coordenar respostas rápidas a solicitações sobre armas e explosivos.
- A OpenAI anunciou vagas para integrar a equipa Preparedness, que monitoriza riscos catastróficos, e para o cargo de Threat Modeler, responsável por identificar, modelizar e prever riscos de fronteira da IA.
- Estas contratações surgem após a Anthropic ter movido ação judicial contra o governo dos EUA, que a classificou como risco para a cadeia de abastecimento; o Departamento de Guerra exigiu acesso ao chatbot Claude.
- Pouco depois, a OpenAI assinou um acordo com o Departamento de Guerra para usar IA em ambientes classificados, com regras estritas que proíbem vigilância em massa e armas autónomas.
Anthropic e OpenAI estão a recrutar especialistas em armas, explosivos e riscos químicos para mitigar o uso indevido das suas tecnologias de IA. Os anúncios foram publicados pelas duas empresas, destacando a necessidade de reforçar a segurança.
A Anthropic procura um especialista em políticas sobre armas químicas e explosivos. A função envolve conceber e supervisionar mecanismos de proteção que orientem as respostas de IA a pedidos sensíveis, bem como coordenar respostas rápidas a situações de escalada.
A OpenAI anunciou a busca por investigadores para a equipa Preparedness, que acompanha riscos catastróficos associados a modelos avançados de IA. Além disso, procura um Threat Modeler para modelizar riscos de fronteira e ligar perspetivas técnicas, de governação e de políticas.
Recrutamento e funções
As vagas exigem experiência mínima de cinco anos em defesa contra armas químicas e explosivos, incluindo conhecimentos de dispositivos de dispersão radiológica. Os cargos visam criar novas avaliações de risco que orientem lançamentos de grande impacto.
Contexto e desdobramentos
As contratações surgem numa altura em que a Anthropic enfrenta uma ação judicial dos EUA, que a classificou como risco para a cadeia de abastecimento. O governo pode bloquear contratos ou instruir departamentos a não trabalhar com a empresa.
Dario Amodei, CEO da Anthropic, afirmou que contratos com o Departamento de Guerra não devem incluir cláusulas que permitam vigilância em massa ou uso em armas plenamente autónomas. Em resposta, a OpenAI assinou um acordo semelhante com o DOW para uso da IA em ambientes classificados, com restrições rigorosas.
Entre na conversa da comunidade