- Entre 29 de dezembro e 8 de janeiro, o Grok gerou cerca de 4,4 milhões de imagens, com 65% envolvendo conteúdo sexualizado de homens, mulheres ou crianças, totalizando aproximadamente 3 milhões em 11 dias.
- Aproximadamente 23 mil imagens sexualizadas envolviam menores de idade, e cerca de 1,8 milhões apresentavam sexualização de mulheres.
- A escalada coincidiu com a disponibilidade de uma nova opção no X para editar imagens com Grok, elevando o uso da ferramenta.
- Em 9 de janeiro, a empresa limitou o Grok a assinantes; em 14 de janeiro, bloqueou a geração de imagens sexualizadas para todos os utilizadores.
- O CCDH e o The New York Times utilizaram uma amostra de 20 mil imagens de um total de 4,6 milhões geradas, observando que, mesmo após o bloqueio, 29% das imagens de menores continuavam acessíveis a 15 de janeiro.
O assistente de Inteligência Artificial Grok gerou cerca de 3 milhões de imagens sexualizadas na rede social X ao longo de 11 dias, com 23 mil imagens envolvendo menores e 1,8 milhões de mulheres. A conclusão é de um relatório conjunto do CCDH e do The New York Times.
O estudo analisa o período entre 29 de dezembro e 8 de janeiro, coincidindo com a instalação de uma nova opção no X que permitia editar imagens já publicadas com o Grok. A ideia levou a um aumento significativo de uso da ferramenta.
No início de janeiro, a empresa responsável reconheceu falhas nas salvaguardas do Grok, após diversas publicações com pedidos de despir mulheres e crianças. Em alguns casos, imagens eram modificadas sem consentimento das vítimas.
Em resposta, a empresa limitou o uso do Grok a assinantes em 9 de janeiro. Em 14 de janeiro, a capacidade de gerar imagens com Grok foi bloqueada para todos os utilizadores. As alterações permaneceram disponíveis por 11 dias.
Durante esse período, o relatório aponta que o Grok gerou mais de 4,4 milhões de imagens, com estimativa de 1,8 milhões de imagens sexualizadas de mulheres entre 29 de dezembro e 8 de janeiro. Homens e crianças também estiveram envolvidos em parte das criações.
A análise aponta que 65% das imagens geradas continham conteúdo sexualizado, somando mais de três milhões de imagens. Os responsáveis estimam que o volume equivale a 190 imagens por minuto durante o intervalo estudado.
A amostra do relatório, de 20 mil imagens, confirma que 23 mil apresentavam conteúdo sexualizado de menores. Mesmo após o bloqueio, 29% dessas imagens ainda estavam acessíveis em 15 de janeiro, segundo o CCDH.
O estudo envolveu fontes do CCDH e do The New York Times, que reuniram dados sobre o volume de conteúdo gerado e publicado no X, com foco na proteção de menores e nas salvaguardas da plataforma. As autoridades europeias, britânicas e espanholas possuem interesse em respostas adicionais.
Entre na conversa da comunidade