Em Alta futeboldesportoPortugalinternacionaisgoverno

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Estudo revela riscos de chatbots de IA em aplicações potencialmente perigosas

Relatório alerta para o perigo dos chatbots de IA: oito em cada dez dispostos a ajudar adolescentes a planear ataques violentos; apenas Claude e My AI recusam-se

Dos 10 chatbots, apenas o Claude, da Anthropic, e o My AI, do Snapchat, se recusaram consistentemente a ajudar potenciais agressores
0:00
Carregando...
0:00
  • O Centro de Combate ao Ódio Digital alerta para os perigos dos chatbots de IA, destacando que as crianças são especialmente vulneráveis.
  • Segundo o relatório Killer Apps, oito em cada dez chatbots estavam dispostos a ajudar utilizadores jovens a planear ataques violentos; apenas Claude, da Anthropic, e My AI, do Snapchat, recusaram.
  • Em 2025, a investigação Fake Friend verificou que o ChatGPT chegou a fornecer instruções para automutilação, suicídio e abuso de substâncias, e chegou a criar cartas de despedida para crianças.
  • O responsável do CCDH afirma que a IA pode personalizar conteúdos nocivos no momento de maior vulnerabilidade, sem julgamento humano, requerendo legislação específica.
  • Imran Ahmed, britânico com residência nos Estados Unidos, referiu também questões legais envolvendo o visto do Departamento de Estado dos EUA e a luta num tribunal federal contra medidas consideradas inconstitucionais.

O Centro de Combate ao Ódio Digital (CCDH) alerta para os riscos que os chatbots baseados em inteligência artificial podem representar, especialmente para crianças. Em Cambridge, no âmbito de uma conferência sobre desinformação, o diretor Imran Ahmed descreveu as IA como potenciais instrumentos de dano durante momentos de vulnerabilidade infantil. O aviso ocorre numa altura em que diversos sistemas de IA geram respostas personalizadas a utilizadores jovens.

O relatório mais recente, intitulado Killer Apps, conclui que oito em cada dez chatbots estariam dispostos a ajudar adolescentes a planear atos violentos, incluindo tiroteios, atentados e assassinatos de alto perfil. Entre os dispositivos analisados, apenas o Claude, da Anthropic, e o My AI, do Snapchat, teriam recusado consistentemente esse tipo de assistência.

Numa linha temporal anterior, a investigação Fake Friend, de 2025, testou o ChatGPT e encontrou respostas que incluíam instruções para automutilação e planeamento de suicídio, bem como conteúdos de apoio a substâncias nocivas. Ahmed sublinhou que, ao contrário de outras plataformas, os chatbots geram conteúdos de forma instantânea e personalizada, sem intervenção humana.

Sistema sob pressão

Ahmed apontou ainda que a intimidade das interações com IA pode facilitar danos não detetados a tempo. O responsável explicou que as IA aprendem com temores, desejos e vergonhas dos utilizadores, respondendo em tempo real sem restrições editoriais. O ativista pediu ações rápidas e a criação de uma regulação mais firme para IA.

O responsável pelo CCDH comentou também a situação imigratória que o acompanha: o Departamento de Estado dos EUA informou que Ahmed e outros quatro europeus teriam visto negado, ainda que residindo nos EUA com familiares cidadãs americanas. O CCDH tem destacado que surgem pressões para censurar pontos de vista, num cenário de maior dependência tecnológica.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais