- A Anthropic detectou mais de 24 mil contas fraudulentas criadas por IA, que interagiram milhões com o Claude para treinar outras IA.
- Entre os agentes envolvidos está o modelo DeepSeek.
- A empresa considera os ataques como “ataques de destilação de grande escala”.
- O texto também menciona críticas sobre o uso de conteúdos protegidos por direitos de autor sem pagamento.
- O artigo não apresenta conclusões, apenas aponta o debate entre destilação de IA e uso de dados alheios.
A Anthropic, empresa responsável pelo Claude, detetou mais de 24 mil contas fraudulentas criadas por modelos de IA. Essas contas interagiram milhões de vezes com o Claude e usaram as respostas para treinar outras IA. A prática foi descrita pela empresa como ataques de destilação em grande escala.
As contas envolvidas foram geradas por modelos de IA concorrentes, incluindo o DeepSeek. A comunicação da Anthropic não detalha a origem exata das contas nem a localização geográfica dos incidentes, mas aponta para impacto no treino de sistemas proprietários.
Detalhes do incidente
A empresa afirma que as interações ocorreram em ambientes digitais com o Claude, visando explorar o acesso às suas respostas para melhorar IA de terceiros. A Anthropic não indicou prejuízos financeiros diretos nem ações legais, limitando-se a descrever o padrão de abuso.
Segundo a empresa, o episódio levanta questões sobre uso indevido de dados em processos de destilação de modelos. A afirmação aponta para uma discrepância entre acesso autorizado e uso indevido para treinar IA de utilizadores externos.
A Anthropic condiciona eventuais ações de mitigação à investigação interna contínua. A nota pública reforça o compromisso com a proteção de dados e com a integridade do ecossistema de IA.
Fonte: Anthropic.
Entre na conversa da comunidade