Em Alta futeboldesportoPortugalinternacionaispessoas

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Roubos em foco: Polícia investiga série de incidentes

Anthropic detetou mais de 24 mil contas fraudulentas geradas por IA que interagiram com Claude para treinar outras IA, num alegado ataque de destilação

Imagem de contexto do artigo #roubos
0:00
Carregando...
0:00
  • A Anthropic detectou mais de 24 mil contas fraudulentas criadas por IA, que interagiram milhões com o Claude para treinar outras IA.
  • Entre os agentes envolvidos está o modelo DeepSeek.
  • A empresa considera os ataques como “ataques de destilação de grande escala”.
  • O texto também menciona críticas sobre o uso de conteúdos protegidos por direitos de autor sem pagamento.
  • O artigo não apresenta conclusões, apenas aponta o debate entre destilação de IA e uso de dados alheios.

A Anthropic, empresa responsável pelo Claude, detetou mais de 24 mil contas fraudulentas criadas por modelos de IA. Essas contas interagiram milhões de vezes com o Claude e usaram as respostas para treinar outras IA. A prática foi descrita pela empresa como ataques de destilação em grande escala.

As contas envolvidas foram geradas por modelos de IA concorrentes, incluindo o DeepSeek. A comunicação da Anthropic não detalha a origem exata das contas nem a localização geográfica dos incidentes, mas aponta para impacto no treino de sistemas proprietários.

Detalhes do incidente

A empresa afirma que as interações ocorreram em ambientes digitais com o Claude, visando explorar o acesso às suas respostas para melhorar IA de terceiros. A Anthropic não indicou prejuízos financeiros diretos nem ações legais, limitando-se a descrever o padrão de abuso.

Segundo a empresa, o episódio levanta questões sobre uso indevido de dados em processos de destilação de modelos. A afirmação aponta para uma discrepância entre acesso autorizado e uso indevido para treinar IA de utilizadores externos.

A Anthropic condiciona eventuais ações de mitigação à investigação interna contínua. A nota pública reforça o compromisso com a proteção de dados e com a integridade do ecossistema de IA.

Fonte: Anthropic.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais