- Duas organizações nos Países Baixos (Offlimits e o Fundo de Ajuda às Vítimas) moveram uma ação contra Grok e a plataforma X, alegando que permitem gerar e difundir conteúdo sexual com IA, incluindo material que pode constituir abuso sexual infantil.
- Alega-se que funções como “apps de nudez” possibilitam criar imagens realistas com IA de pessoas nuas, incluindo menores, sem consentimento.
- A versão 4.2 do Grok permite criar vídeos completos a partir de uma única fotografia usando IA.
- Os demandantes exigem que Grok e X cessem imediatamente as funcionalidades que possibilitam “despir” digitalmente pessoas sem consentimento e a geração de material que possa ser classificado como abuso sexual infantil, sob pena de multa coercitiva de 100.000 euros por cada dia de incumprimento.
- O processo é sustentado por dados que indicam um aumento da violência sexual online facilitada por IA, com dezenas de milhares de jovens potencialmente afetados; o caso será julgado num tribunal em Amesterdão no dia 12 de março.
Duas organizações holandesas entraram com uma ação judicial urgente contra a ferramenta de IA Grok e a plataforma X, alegando que as soluções permitem gerar e difundir conteúdo sexual ilegal, incluindo material que pode constituir abuso sexual de menores. O processo cita recursos como “apps de nudez”, que permitem criar imagens realistas com IA em que pessoas, incluindo menores, aparecem nuas sem consentimento. A versão 4.2 do Grok foi lançada na semana passada, permitindo criar vídeos completos a partir de uma única fotografia usando IA.
As entidades argumentam que tais conteúdos violam leis locais e regulamentos europeus, estando sujeitos a sanções legais. O processo exige a cessação imediata das funções que possibilitam vestir digitalmente pessoas sem consentimento e a geração de material que possa ser classificado como abuso sexual infantil. Caso haja incumprimento, é pedida uma multa coercitiva de 100.000 euros por cada dia de inércia.
A Offlimits, centro dedicado à prevenção do abuso online, e o Fundo de Ajuda às Vítimas destacam um aumento considerado explosivo da violência sexual online potenciada por IA. O diretor executivo, Robbert Hoving, descreveu a situação como um acidente em câmara lenta, com imagens criadas ou editadas a serem usadas para assediar ou humilhar vítimas.
Dados apresentados pelas organizações indicam que metade dos jovens nos Países Baixos já sofreu intimidação ou abuso sexual na Internet, com dezenas de milhares potencialmente expostos a imagens geradas por IA. Estima-se que, no último ano, entre 17.000 e 39.000 jovens entre 12 e 25 anos possam ter sido afetados.
A diretora do Fundo, Ineke Sybesma, explicou que para as vítimas não há diferença entre uma imagem real e uma gerada por IA, sublinhando que a vergonha persiste e que os impactos não terminam com a remoção online. As entidades apontam ainda que o design da plataforma facilita o abuso, tornando a remoção apenas uma solução parcial.
Implicações legais e próximos passos
As organizações indicam que as funcionalidades violam privacidade, RGPD, a Lei de Serviços Digitais (DSA), o Código Penal e o direito à própria imagem. Observam que a jurisprudência europeia exige consentimento demonstrável para a distribuição de material sexual. O caso está marcado para julgamento num tribunal em Amesterdão no dia 12 de março.
Entre na conversa da comunidade