- No Dia Internacional da Verificação de Factos, enfatiza-se a identificação de desinformação gerada por IA.
- Um estudo na revista PNAS Nexus, com 27 mil pessoas de 27 países da UE, avaliou oito títulos, entre humanos e IA, medindo verosimilhança.
- Quase metade das manchetes criadas por IA foi considerada real na avaliação dos inquiridos, em contraste com 44% das escritas por humanos.
- As pessoas mostraram maior propensão a partilhar ou confiar numa notícia gerada por IA, se conectada a um acontecimento real, mas recusaram partilhar se fosse falsa.
- Regras práticas incluem procurar pistas visuais e investigar o conteúdo via pesquisa inversa, ferramentas de metadados, marcas de água e fontes de verificação de factos na Europa (EFCSN, EDMO, EUvsDisinfo) e bases como a Database of Known Fakes.
No décimo Dia Internacional da Verificação de Factos, organizações e investigadores alertam para a crescente desinformação gerada por IA. O objetivo é distinguir conteúdos autênticos de imagens ou vídeos produzidos por algoritmos, especialmente em períodos de conflitos ou eleições.
Estudos indicam que muitas pessoas não conseguem distinguir entre material criado por humanos e por IA. Em um inquérito com 27 mil pessoas de 27 países da UE, quase metade classificou manchetes criadas por IA como realistas. A percepção de veracidade influencia a partilha dessas informações.
Para identificar conteúdos manipulados, recomenda-se procurar pistas visuais em vídeos e imagens. Sinais como objetos distorcidos, dedos a mais ou iluminação excessiva podem indicar geração por IA, ainda que evoluíram com o tempo.
Procedimentos de verificação
Oiça-se a verificação técnica através de uma busca inversa de imagens, usando motores como Google ou TinEye, para encontrar a origem e o momento de publicação. Metadados ou marcas de água podem ajudar, embora nem sempre sejam confiáveis.
Soluções técnicas surgem para sinalizar conteúdos gerados por IA. Por exemplo, algumas ferramentas podem detectar assinaturas digitais escondidas ou marcas de água visíveis, mas a ausência de marcas não é prova de autenticidade.
Fontes e referências
Organizações europeias de verificação, como EFCSN, EDMO e EUvsDisinfo, publicam tendências e desmentidos sobre desinformação gerada por IA. Base de dados de “Known Fakes” agrega verificações realizadas por jornalistas e fact-checkers.
Algumas plataformas indicam que conteúdos gerados por IA podem incorporar marcas específicas, como o SynthID em determinadas imagens criadas com IA da Google. Existem ainda bases públicas com orientações sobre conteúdos desmentidos.
Recomendações para utilizadores
Especialistas aconselham confirmar o conteúdo antes de partilhar, consultar várias fontes e verificar se o tema é discutido por entidades reconhecidas. Interlocutores na área destacam a necessidade de manter o ceticismo ante conteúdos de alto impacto emocional.
A recomendação é manter a calma, analisar contexto e evitar decisões rápidas de partilha. A desinformação gerada por IA continua a exigir ferramentas e hábitos de verificação mais robustos.
Entre na conversa da comunidade