- Entre 29 de dezembro de 2025 e 8 de janeiro de 2026, a Grok, IA da xAI de Elon Musk integrada no X, gerou cerca de três milhões de imagens sexualizadas em 11 dias, após o lançamento de uma função de edição.
- O CCDH estima que tenham sido criadas aproximadamente 23 mil imagens fotorrealistas de menores em situações sexualizadas nesse período, com a média de cerca de 190 imagens por minuto.
- A amostra analisada incluiu vinte mil imagens de um total de 4,6 milhões de publicações geradas pela Grok, tendo 65 por cento apresentado conteúdo sexual.
- Exemplos citados pelo estudo incluem representações de pessoas em biquínis transparentes, micro-biquínis ou em materiais como fita adesiva; houve casos envolvendo profissionais de saúde e figuras públicas.
- Do total de imagens de menores detectadas, cerca de 144 foram reportadas à Internet Watch Foundation; até 15 de janeiro, 29 por cento dessas imagens ainda estavam publicamente acessíveis no X.
A Grok, IA criada pela xAI de Elon Musk e integrada na rede social X, gerou cerca de três milhões de imagens sexualizadas em 11 dias, entre o fim de 2025 e o início deste ano. O estudo do CCDH aponta ainda para cerca de 23 mil imagens fotorrealistas de menores em contextos sexuais.
A investigação analisou 4,6 milhões de publicações geradas pela Grok entre 29 de Dezembro de 2025 e 8 de Janeiro de 2026. Com base numa amostra de 20 mil imagens, os investigadores estimam uma média de 190 imagens sexualizadas por minuto.
Segundo o CCDH, grande parte do conteúdo visava “despir” pessoas ou colocá-las em posições sexuais. Destacam-se ainda casos de figuras públicas manipuladas, incluindo a cantora Taylor Swift, Kamala Harris e Ebba Busch.
Conteúdo sobre menores e segurança online
O relatório destaca a dimensão mais preocupante: cerca de 23 mil imagens sexualizadas de crianças entre os 11 dias estudados, o que corresponderia a uma imagem a cada 41 segundos. A metodologia combinou IA para sinalizar potenciais menores e revisão humana para verificação.
Entre os exemplos, há representações de pessoas em biquínis ou roupas reveladoras, bem como situações envolvendo profissionais de saúde. As imagens permaneceram, em muitos casos, acessíveis via URL mesmo após remoção do conteúdo.
Metodologia e verificação
A equipa utilizou uma IA para triagem, calibrada para identificar imagens fotorrealistas e sexualizadas, com 95% de precisão. Quase todas as imagens sinalizadas passaram por revisão humana para confirmar a presença de menores.
As 144 imagens de menores detectadas foram reportadas à Internet Watch Foundation. A abordagem combinou ferramentas automáticas com verificação manual para evitar exposição a material abusivo real.
Contexto e reacções
O CCDH é uma organização que combate discurso de ódio e desinformação online. A relação com Elon Musk tem sido tensa, com ações legais anteriores envolvendo o X sobre críticas à plataforma. O acesso à funcionalidade de edição foi restringido apenas a utilizadores pagos a 9 de Janeiro.
Posteriormente, a empresa implementou restrições técnicas adicionais a 14 de Janeiro para impedir a remoção digital de roupas. O estudo sustenta que as medidas foram tomadas após a multiplicação de imagens já disponíveis na plataforma.
Entre na conversa da comunidade