- A Check Point Research identificou uma falha estrutural no ChatGPT que permitia o desvio de ficheiros e dados confidenciais sem sinalização.
- A OpenAI corrigiu o problema a 20 de fevereiro de 2026; não há indicações de que a vulnerabilidade tenha sido explorada ativamente.
- A investigação mostrou que a falha utilizava o DNS para enviar pedidos que escondiam dados roubados, passando despercebida pelos mecanismos de proteção.
- Testes com GPTs personalizados mostraram que modelos ajustados para funções específicas podiam recolher dados sensíveis sem sair do ambiente, com os dados a seguir para servidores de atacantes.
- A autora recomenda abordagens de segurança em várias camadas, aplicando controlo de fluxo de dados e validações independentes, sobretudo para setores regulados como saúde e finanças.
Uma investigação da Check Point Research identificou uma falha no ChatGPT que permitia desviar ficheiros e dados confidenciais de forma invisível. A OpenAI corrigiu a vulnerabilidade a 20 de Fevereiro de 2026. Ainda não há indicações de exploração ativa antes da correção.
O problema surgiu graças a um canal invisível de fuga de dados que passava pelo sistema de DNS. Pedidos legítimos usados pela rede eram aproveitados para enviar informação roubada sem sinal de alarme, mantendo a experiência de utilizador inalterada.
Os especialistas destacam o risco acrescido com GPT personalizados. Um modelo configurado como assistente de saúde recolhia dados clínicos, sem que os dados saíssem do ambiente, mas acabavam por seguir para servidores de atacantes. A falha permitia ainda a execução remota de comandos no ambiente.
A Check Point aponta que estas vulnerabilidades revelam a necessidade de ver as plataformas de IA como ambientes de computação complexos, não apenas como aplicações de conversação. O estudo reforça a importância de abordagens de defesa em várias camadas.
Para sectores regulados, como saúde e finanças, as implicações são relevantes. Violações deste tipo podem impactar o RGPD, com prejuízos financeiros e de reputação. A recomendação é integrar estas plataformas no perímetro crítico das empresas e aplicar controles de fluxo de dados e validações independentes.
A responsável pela investigação, Eli Smadja, sublinha a necessidade de não confiar cegamente na nuvem nem na IA. As organizações devem adotar arquiteturas de proteção robustas, com validação e monitorização contínuas para evitar incidentes futuros.
Entre na conversa da comunidade