Em Alta futeboldesportoPortugalinternacionaisgoverno

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Vestager apoia instituto de IA para crianças após regulação da Big Tech

Vestager apoia instituto independente para testes de segurança da IA infantil, financiado por filantropia e Big Tech, com avaliações em código aberto

ARQUIVO - Vice-presidente executiva da Comissão Europeia, Margrethe Vestager, fala aos jornalistas
0:00
Carregando...
0:00
  • Será apresentado no Parlamento dinamarquês, na terça‑feira, um novo instituto independente dedicado a tornar a inteligência artificial mais segura para crianças, com Margrethe Vestager entre os responsáveis pelo evento.
  • O instituto, ligado à Common Sense Media, pretende usar um modelo inspirado nos testes de colisão de automóveis para avaliar a segurança da IA usada por crianças.
  • Questiona‑se ainda como aplicar testes de “crash‑tests” a IA que se atualiza, varia com o contexto e não pode ser testada em condições padronizadas; o conceito precisa de clarificação.
  • O grupo defende normas transparentes de segurança da IA e testes independentes, citando a necessidade de provas para garantir que a IA protege o interesse das crianças.
  • O financiamento vem de doadores filantrópicos e de empresas do setor, incluindo Anthropic, OpenAI Foundation e Pinterest, mantendo‑se a independência editorial e a proibição de que trabalhadores ou familiares dessas entidades integrem o conselho consultivo.

O que vai acontecer é a apresentação de um novo instituto independente dedicado a tornar a inteligência artificial mais segura para as crianças. A iniciativa envolve a organização sem fins lucrativos Common Sense Media, com Margrethe Vestager entre os responsáveis pela organização do evento. O lançamento está marcado para a próxima terça-feira no Parlamento dinamarquês.

O instituto pretende promover testes de IA inspirados em classificações de segurança de automóveis. A ideia é permitir que pais avaliem a segurança da IA usada pelos filhos, tal como verificam a segurança de um veículo antes de comprar. Questions sobre como aplicar testes a sistemas de IA em contínua atualização permanecem em aberto.

Vestager é uma figura de peso na esfera pública, com uma carreira dedicada à concorrência e à era digital na União Europeia. O objetivo declarado é reforçar a proteção de menores através de normas e avaliações independentes para IA.

Modelo de funcionamento e financiamento

O projeto funciona dentro da estrutura da Common Sense Media e recebe doações de fundações e do setor privado, incluindo entidades como Anthropic, a OpenAI Foundation e Pinterest. Mantém, contudo, independência editorial e uma política de conflitos de interesse rígida.

A estratégia inclui disponibilizar ferramentas em código aberto para que programadores apliquem avaliações aos seus modelos de IA. O instituto afirma não permitir que funcionários ou afiliados dos financiadores integrem o conselho consultivo.

Contexto regulatório e riscos

Investigadores e defensores têm alertado para lacunas regulatórias em IA, especialmente no que diz respeito a proteção de menores. Relatórios de 2025 apontaram falhas de reconhecimento de sinais de sofrimento mental em vários chatbots, destacando atrasos na activação de alertas e respostas inadequadas.

A iniciativa surge num momento de intensificação de debates sobre normas, transparência e testes independentes para IA destinada a crianças. A apresentação pretende trazer evidências e práticas que permitam decisões informadas por famílias e educadores.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais