- Será apresentado no Parlamento dinamarquês, na terça‑feira, um novo instituto independente dedicado a tornar a inteligência artificial mais segura para crianças, com Margrethe Vestager entre os responsáveis pelo evento.
- O instituto, ligado à Common Sense Media, pretende usar um modelo inspirado nos testes de colisão de automóveis para avaliar a segurança da IA usada por crianças.
- Questiona‑se ainda como aplicar testes de “crash‑tests” a IA que se atualiza, varia com o contexto e não pode ser testada em condições padronizadas; o conceito precisa de clarificação.
- O grupo defende normas transparentes de segurança da IA e testes independentes, citando a necessidade de provas para garantir que a IA protege o interesse das crianças.
- O financiamento vem de doadores filantrópicos e de empresas do setor, incluindo Anthropic, OpenAI Foundation e Pinterest, mantendo‑se a independência editorial e a proibição de que trabalhadores ou familiares dessas entidades integrem o conselho consultivo.
O que vai acontecer é a apresentação de um novo instituto independente dedicado a tornar a inteligência artificial mais segura para as crianças. A iniciativa envolve a organização sem fins lucrativos Common Sense Media, com Margrethe Vestager entre os responsáveis pela organização do evento. O lançamento está marcado para a próxima terça-feira no Parlamento dinamarquês.
O instituto pretende promover testes de IA inspirados em classificações de segurança de automóveis. A ideia é permitir que pais avaliem a segurança da IA usada pelos filhos, tal como verificam a segurança de um veículo antes de comprar. Questions sobre como aplicar testes a sistemas de IA em contínua atualização permanecem em aberto.
Vestager é uma figura de peso na esfera pública, com uma carreira dedicada à concorrência e à era digital na União Europeia. O objetivo declarado é reforçar a proteção de menores através de normas e avaliações independentes para IA.
Modelo de funcionamento e financiamento
O projeto funciona dentro da estrutura da Common Sense Media e recebe doações de fundações e do setor privado, incluindo entidades como Anthropic, a OpenAI Foundation e Pinterest. Mantém, contudo, independência editorial e uma política de conflitos de interesse rígida.
A estratégia inclui disponibilizar ferramentas em código aberto para que programadores apliquem avaliações aos seus modelos de IA. O instituto afirma não permitir que funcionários ou afiliados dos financiadores integrem o conselho consultivo.
Contexto regulatório e riscos
Investigadores e defensores têm alertado para lacunas regulatórias em IA, especialmente no que diz respeito a proteção de menores. Relatórios de 2025 apontaram falhas de reconhecimento de sinais de sofrimento mental em vários chatbots, destacando atrasos na activação de alertas e respostas inadequadas.
A iniciativa surge num momento de intensificação de debates sobre normas, transparência e testes independentes para IA destinada a crianças. A apresentação pretende trazer evidências e práticas que permitam decisões informadas por famílias e educadores.
Entre na conversa da comunidade