Em Alta futeboldesportoPortugalinternacionaisgoverno

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Vulnerabilidade no ChatGPT permitiu acesso a dados sensíveis

Vulnerabilidade no ChatGPT permitia fuga invisível de dados confidenciais via DNS; OpenAI corrigiu o problema a 20 de fevereiro de 2026

Foi detectada uma falha de segurança no ChatGPT, que já foi corrigida
0:00
Carregando...
0:00
  • A Check Point Research identificou uma falha estrutural no ChatGPT que permitia o desvio de ficheiros e dados confidenciais sem sinalização.
  • A OpenAI corrigiu o problema a 20 de fevereiro de 2026; não há indicações de que a vulnerabilidade tenha sido explorada ativamente.
  • A investigação mostrou que a falha utilizava o DNS para enviar pedidos que escondiam dados roubados, passando despercebida pelos mecanismos de proteção.
  • Testes com GPTs personalizados mostraram que modelos ajustados para funções específicas podiam recolher dados sensíveis sem sair do ambiente, com os dados a seguir para servidores de atacantes.
  • A autora recomenda abordagens de segurança em várias camadas, aplicando controlo de fluxo de dados e validações independentes, sobretudo para setores regulados como saúde e finanças.

Uma investigação da Check Point Research identificou uma falha no ChatGPT que permitia desviar ficheiros e dados confidenciais de forma invisível. A OpenAI corrigiu a vulnerabilidade a 20 de Fevereiro de 2026. Ainda não há indicações de exploração ativa antes da correção.

O problema surgiu graças a um canal invisível de fuga de dados que passava pelo sistema de DNS. Pedidos legítimos usados pela rede eram aproveitados para enviar informação roubada sem sinal de alarme, mantendo a experiência de utilizador inalterada.

Os especialistas destacam o risco acrescido com GPT personalizados. Um modelo configurado como assistente de saúde recolhia dados clínicos, sem que os dados saíssem do ambiente, mas acabavam por seguir para servidores de atacantes. A falha permitia ainda a execução remota de comandos no ambiente.

A Check Point aponta que estas vulnerabilidades revelam a necessidade de ver as plataformas de IA como ambientes de computação complexos, não apenas como aplicações de conversação. O estudo reforça a importância de abordagens de defesa em várias camadas.

Para sectores regulados, como saúde e finanças, as implicações são relevantes. Violações deste tipo podem impactar o RGPD, com prejuízos financeiros e de reputação. A recomendação é integrar estas plataformas no perímetro crítico das empresas e aplicar controles de fluxo de dados e validações independentes.

A responsável pela investigação, Eli Smadja, sublinha a necessidade de não confiar cegamente na nuvem nem na IA. As organizações devem adotar arquiteturas de proteção robustas, com validação e monitorização contínuas para evitar incidentes futuros.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais