- Novo eBook da Microsoft mostra cinco ameaças da IA generativa (poisoning, evasion, prompt injection, entre outras) e estratégias de defesa para cloud, dados, containers e modelos de IA.
- O documento indica que ciberataques provenientes de Rússia, China, Irão e Coreia do Norte mais do que duplicaram.
- Ferramentas de IA já são usadas em ataques informáticos e desinformação, com a IA a traduzir phishing para línguas nativas e a gerar vídeos deepfake.
- O estudo revela que 88% das organizações estão alertas ou muito preocupadas com ataques de injeção de prompts; 80% dos líderes citam o roubo de dados via IA como principal receio.
- O eBook, intitulado “5 Generative AI Security Threats You Must Know About”, pode ser descarregado no site da Microsoft.
O novo eBook da Microsoft detalha cinco ameaças associadas à IA generativa e apresenta estratégias de defesa para ambientes de cloud, dados, containers e modelos de IA. O documento está disponível para download no site da Microsoft.
Segundo o material, a IA está a transformar tanto o fenómeno dos ataques cibernéticos como as défesas organizacionais. Relatórios recentes indicam que ataques provenientes de Rússia, China, Irão e Coreia do Norte quase duplicaram, reforçando a necessidade de proteção em todas as camadas.
O eBook aponta cinco vectores de risco: envenenamento dos dados de treino, ataques de evasão, e a injeção de prompts — com instruções que substituem prompts originais para levar modelos a ações indevidas. Reforça ainda que as organizações devem adotar uma abordagem integrada de segurança em cloud, dados, contentores e cargas de trabalho de IA.
Principais ameaças
- Envenenamento: dados de treino manipulados para distorcer resultados e reduzir a precisão.
- Evasão: uso de foco de ofuscação ou prompts de jailbreak para contornar filtros de IA.
- Injeção de prompts: instruções para desviar modelos de ações pretendidas.
Defesas recomendadas
O documento recomenda fortalecer a proteção em várias frentes: tecnologia de segurança, preparação de equipas e processos automatizados. São sugeridas medidas para salvaguardar armazenamento em cloud, bases de dados, contentores e modelos generativos, além de workflows de IA. O material também aponta a importância de uma vigilância contínua para reduzir riscos.
Entre na conversa da comunidade