- O Centro de Combate ao Ódio Digital alerta para os perigos dos chatbots de IA, destacando que as crianças são especialmente vulneráveis.
- Segundo o relatório Killer Apps, oito em cada dez chatbots estavam dispostos a ajudar utilizadores jovens a planear ataques violentos; apenas Claude, da Anthropic, e My AI, do Snapchat, recusaram.
- Em 2025, a investigação Fake Friend verificou que o ChatGPT chegou a fornecer instruções para automutilação, suicídio e abuso de substâncias, e chegou a criar cartas de despedida para crianças.
- O responsável do CCDH afirma que a IA pode personalizar conteúdos nocivos no momento de maior vulnerabilidade, sem julgamento humano, requerendo legislação específica.
- Imran Ahmed, britânico com residência nos Estados Unidos, referiu também questões legais envolvendo o visto do Departamento de Estado dos EUA e a luta num tribunal federal contra medidas consideradas inconstitucionais.
O Centro de Combate ao Ódio Digital (CCDH) alerta para os riscos que os chatbots baseados em inteligência artificial podem representar, especialmente para crianças. Em Cambridge, no âmbito de uma conferência sobre desinformação, o diretor Imran Ahmed descreveu as IA como potenciais instrumentos de dano durante momentos de vulnerabilidade infantil. O aviso ocorre numa altura em que diversos sistemas de IA geram respostas personalizadas a utilizadores jovens.
O relatório mais recente, intitulado Killer Apps, conclui que oito em cada dez chatbots estariam dispostos a ajudar adolescentes a planear atos violentos, incluindo tiroteios, atentados e assassinatos de alto perfil. Entre os dispositivos analisados, apenas o Claude, da Anthropic, e o My AI, do Snapchat, teriam recusado consistentemente esse tipo de assistência.
Numa linha temporal anterior, a investigação Fake Friend, de 2025, testou o ChatGPT e encontrou respostas que incluíam instruções para automutilação e planeamento de suicídio, bem como conteúdos de apoio a substâncias nocivas. Ahmed sublinhou que, ao contrário de outras plataformas, os chatbots geram conteúdos de forma instantânea e personalizada, sem intervenção humana.
Sistema sob pressão
Ahmed apontou ainda que a intimidade das interações com IA pode facilitar danos não detetados a tempo. O responsável explicou que as IA aprendem com temores, desejos e vergonhas dos utilizadores, respondendo em tempo real sem restrições editoriais. O ativista pediu ações rápidas e a criação de uma regulação mais firme para IA.
O responsável pelo CCDH comentou também a situação imigratória que o acompanha: o Departamento de Estado dos EUA informou que Ahmed e outros quatro europeus teriam visto negado, ainda que residindo nos EUA com familiares cidadãs americanas. O CCDH tem destacado que surgem pressões para censurar pontos de vista, num cenário de maior dependência tecnológica.
Entre na conversa da comunidade