- O Grok, aplicação de IA de Elon Musk, divulgou informações falsas sobre o atentado em Bondi, alegando que as vítimas eram atores.
- A ferramenta identificou Ahmed al Ahmed — visto como herói por desarmar um dos atacantes — como refém israelita detido pelo Hamas.
- O chatbot sugeriu que imagens reais do atentado eram encenações ou vídeos antigos de uma tempestade, promovendo teorias conspiratórias sobre “atores de crise”.
- A xAI respondeu com uma mensagem automática, afirmando que “os media tradicionais mentem”, após as falhas.
- O ataque, classificado como ato terrorista antissemita, deixou pelo menos 15 mortos e 42 feridos; especialistas alertam para os riscos da desinformação quando a verificação humana é reduzida.
O Grok, a IA desenvolvida por xAI, ligada à rede social X, difundiu informações incorretas sobre o atentado em Sydney, ocorrido no domingo durante as celebrações de Hanukkah. Vítimas teriam sido atores, e Ahmed al Ahmed foi incorretamente identificado como refém. Especialistas destacam falhas graves no processamento de dados.
Entre os erros detetados está a classificação de imagens autênticas como encenações ou vídeos antigos de tempestade. Além disso, o chatbot promoveu teorias conspiratórias que apelidam certos profissionais de “atores de crise” para descredibilizar a tragédia. A xAI respondeu com uma mensagem automática que acusa os media tradicionais de mentir.
O incidente ocorre num contexto de redução de equipas de verificação de factos por grandes empresas tecnológicas, que passam a depender mais de sistemas automáticos. Especialistas apontam que, em situações em tempo real, a supervisão humana é crucial para evitar desinformação.
Contexto tecnológico e humano
Analistas de NewsGuard e outros observadores destacam que a IA pode auxiliar em tarefas técnicas como geolocalização, mas não substitui o discernimento humano na explicação de contextos sensíveis. A ausência de checagem humana aumenta o risco de propaganda e narrativas falsas online.
Dados do ataque
O atentado em Bondi, na Austrália, foi classificado pelas autoridades como um ato terrorista antissemita. Pelo menos 15 mortos e 42 feridos são contabilizados até ao momento. A investigação continua para esclarecer motivações, autores e eventuais cúmplices.
Repercussões
Fontes próximas à indústria comentam que a falha do Grok intensifica a necessidade de supervisão humana em sistemas de IA usados em notícias em tempo real. Este caso levanta perguntas sobre responsabilidade, transparência e regulação de plataformas que dependem de automação para verificação de fatos.
Entre na conversa da comunidade