- Investigadores apoiados pela União Europeia estão a desenvolver ferramentas de IA para ajudar jornalistas a identificar conteúdos gerados por IA e desinformação, através dos projetos AI4Media e AI4Trust.
- Em plena quadra festiva, vídeos e fotos manipulados por IA geraram desinformação sobre mercados de Natal na Europa, destacando o desafio de distinguir o real do falso.
- A AI4Media criou ferramentas de verificação integráveis nos fluxos de trabalho jornalísticos; operadores como Deutsche Welle e VRT já as testaram.
- A AI4Trust opera como um sistema híbrido homem-máquina que monitoriza em tempo quase real redes sociais e sítios noticiosos, sinalizando conteúdos de alto risco para verificação posterior.
- A UE avança com regras de transparência e salvaguardas para jornalismo independente, visando proteger conteúdos mediáticos profissionais e aumentar a responsabilização das plataformas.
Num contexto de rápida evolução tecnológica, investigadores apoiados pela União Europeia criaram ferramentas para ajudar jornalistas a distinguir entre informação verificada e desinformação produzida com IA. O objetivo é facilitar o trabalho de verificação em redações, face a conteúdos cada vez mais realistas.
Durante o último inverno, imagens de mercados de Natal europeus geraram alarmismo nas redes sociais, alegando ataques de islamistas. A verdade revelou-se: vídeos eram de manifestações pacíficas e fotografias geradas com IA. Este fenómeno ilustra o desafio atual da propagação de conteúdos manipulados.
A UE tem reagido com iniciativas de investigação e cooperação entre universidades, meios de comunicação social e empresas tecnológicas, financiadas em parte por fundos europeus. As ferramentas desenvolvidas visam acelerar a verificação de conteúdos digitais sem substituir o discernimento humano.
Uma primeira linha de defesa
Em 2020 nasceu a iniciativa AI4Media, com quatro anos de financiamento europeu, para desenvolver IA que suporte jornalistas e verificadores de factos. A meta é tornar a verificação de conteúdos rápida e fiável, integrada nos fluxos de trabalho das redações.
Segundo Yiannis Kompatsiaris, coordenador do projeto, é urgente adaptar técnicas de IA ao setor jornalístico. A IA facilita a criação de conteúdos falsos realistas, o que aumenta a tentação de partilha nas plataformas sociais.
A equipa de AI4Media testou as ferramentas com organizações de comunicação como a Deutsche Welle e a VRT, comprovando a utilidade na detecção de conteúdos suspeitos. Verificadores de factos sublinham a importância de uma sinalização precoce sem substituir a avaliação humana.
Detetar padrões de desinformação
Além de identificar conteúdos manipulados, analisa-se como a desinformação se propaga: quem a amplifica, como evoluem as narrativas e se as campanhas são coordenadas. Riccardo Gallotti destaca a necessidade de acompanhar rapidamente a evolução tecnológica.
Num projeto paralelo, o AI4Trust, a FBK em Trento desenvolve um sistema híbrido para monitorizar desinformação em larga escala, com parceiros como Euractiv, Sky Italia e organizações de verificação de factos. O objetivo é mapear dinâmicas multilingues e multimodais.
O sistema analisa redes sociais e sites em tempo quase real, sinalizando conteúdos de alto risco. Verificadores analisam os itens sinalizados e alimentam o sistema com avaliações para melhorar desempenho. A abordagem combina detecção e compreensão de propagação.
A corrida ao armamento
A indústria reconhece que a IA para detectar IA é uma resposta necessária ante o ritmo de evolução dos modelos gerativos. A equipa observa que atualizar modelos de verificação é essencial para acompanhar conteúdos recém-gerados.
Kompatsiaris aponta que o investimento contínuo, público e privado, sustenta estas capacidades. Papadopoulos acrescenta que é necessário usar IA para acompanhar a IA, dada a velocidade de desenvolvimento dos conteúdos gerados digitalmente.
O futuro da IA
A implementação não depende apenas de tecnologia. Políticas e regras também são indispensáveis. Regulamentos europeus sobre serviços digitais e IA estabelecem obrigações de transparência, identificação de conteúdos gerados por IA e responsabilidade das plataformas de grande dimensão.
Um código de conduta sobre transparência de conteúdos gerados por IA visa normas claras de divulgação e de marcação. O objetivo é fortalecer a proteção do jornalismo independente, mantendo procedimentos de revisão de conteúdos antes de remoções.
Este conjunto de medidas, aliadas a salvaguardas para o jornalismo, pretende promover uma internet mais responsável. A sensibilização pública continua a ser essencial para combater a desinformação.
Entre na conversa da comunidade