- A IWF aponta um aumento de 14% em 2025 de imagens geradas por IA que retratam abusos sexuais de menores, com mais de oito mil conteúdos identificados no último ano.
- Mais de 3.400 desses conteúdos são vídeos de “full motion” gerados por IA, com interações entre várias pessoas.
- Mais de 65% dessas imagens e vídeos representam as formas mais graves de abuso, incluindo violação, tortura sexual e bestialidade.
- O relatório descreve discussões na dark web e anúncios que oferecem “cursos” para ensinar a criar imagens de adolescentes por IA, reduzindo barreiras técnicas.
- A IWF pede à União Europeia uma proibição ampla de conteúdos de CSAM gerados por IA e das ferramentas usadas para criá-los, classificando sistemas de IA que geram CSAM como alto risco no AI Act.
A produção de conteúdos sexuais envolvendo menores gerados por inteligência artificial (IA) continua a aumentar, segundo um relatório da Internet Watch Foundation (IWF). Em 2025, houve um aumento de 14% em imagens e vídeos criados com IA, que simulam abuso de crianças. As descobertas baseiam-se em denúncias de utilizadores.
No total, a IWF identificou mais de 8.000 conteúdos gerados por IA no último ano. A organização britânica distingue o material gerado por IA das imagens reais por erros óbvios, pela afirmação da vítima de que é IA ou por informações do criador. O foco está no que é produzido com IA.
Mais de 3.400 conteúdos IA eram vídeos em movimento, com hiper-realismo, que permitem a interação entre várias pessoas nas cenas. Além disso, 65% dos conteúdos de IA correspondiam às formas mais graves de abuso, incluindo violação, tortura sexual e outras violações extremas.
Ainda segundo o relatório, a pornografia infantil não gerada por IA também é relevante, mas menos extrema: 43% enquadram-se nas categorias mais extremas, o que indica que alguns agressores recorrem à IA para elevar o grau de violência. A IWF alerta para uma tendência de crescimento rápido.
Como utilizam os agressores a IA
A análise mostra discussões na dark web onde os ofensores trocam modelos de IA e bases de dados para gerar material abusivo. Em um caso, surgiu um anúncio a oferecer “cursos personalizados” sobre criação de imagens de adolescentes com IA.
A IWF conclui que uma única aplicação já permite gerar conteúdos abusivos com baixo esforço técnico, reduzindo barreiras à entrada. Em alguns casos, basta uma imagem de referência para produzir conteúdo sexual envolvendo menores.
Apesar do aumento, o relatório admite que o material recolhido oferece apenas uma visão parcial do que circula online. Barreiras de acesso a paywalls e espaços encriptados limitam a capacidade de monitorização dos analistas.
União Europeia: proibição alargada pode ser o padrão mínimo
Kerry Smith, diretora-executiva da IWF, pediu à UE para considerar uma proibição ampla de conteúdos de abuso sexual de menores gerados por IA e das ferramentas usadas para criá-los. A proibição, segundo o relatório, também tornaria ilegal criar conteúdos personalizados, mesmo se não partilhados.
A sondagem surge após a extensão temporária da Directiva ePrivacy, até 3 de abril, para permitir um quadro jurídico de longo prazo no combate ao CSAM. Os legisladores defendem medidas proporcionais que se apliquem apenas a conteúdos já sinalizados como potencial CSAM.
A IWF também defende que a Lei da IA da UE classifique sistemas capazes de gerar conteúdo sexual de menores como de alto risco. Nessa designação, os sistemas enfrentariam testes mais rigorosos antes de serem disponibilizados no bloco.
O relatório reforça que o uso da IA para exploração sexual de crianças é ilegal sob a Lei da IA da UE, que impede sistemas criados com esse fim de serem disponibilizados na UE.
Entre na conversa da comunidade