- A China tem mais de 515 milhões de utilizadores de serviços de IA que simulam personalidade, com reguladores a propor regras para controlar a interação emocional e a divulgação de que se fala com máquina.
- A Administração do Ciberespaço da China (ACC) publicou medidas provisórias para gestão do sector, com supervisão por nível de risco, monitorização em tempo real do estado emocional dos utilizadores e intervenções em casos de vício.
- As regras obrigam os fornecedores a informar claramente que o utilizador fala com IA e a recorrer a pop-ups nesses casos de dependência extrema, além de proibir conteúdos que incentivem suicídio, automutilação, abuso verbal e manipulação emocional.
- Um estudo publicado na Frontiers in Psychology indica que 45,8% dos estudantes universitários chineses recorreram a chatbots de IA no mês anterior ao estudo, apresentando maiores níveis de depressão face a quem não utilizou IA.
- Observadores discutem os prós e contras: a MIT Media Lab nota que benefícios na redução de solidão diminuem com uso elevado, especialmente em chatbots de voz, enquanto temas pessoais podem aumentar dependência; a ACC exige monitorização e salvaguardas ao longo do ciclo de vida do produto.
A China está a intensificar a regulação dos serviços de IA que interagem com pessoas, com foco na prevenção de dependência emocional. A preocupação pública surge num momento em que o número de utilizadores destes serviços ultrapassa os 515 milhões, com sinais de impactos psicológicos entre utilizadores.
Reguladores já identificam riscos de depressão e alienação entre quem usa chatbots com traços de personalidade humana. Um estudo recente aponta que quase metade dos estudantes universitários chineses recorre aos chatbots, com maiores índices de depressão entre quem os utiliza.
A Administração do Ciberespaço da China (ACC) propõe medidas provisórias para gerir o setor, com supervisão por níveis de risco e monitorização em tempo real do estado emocional dos utilizadores. As propostas incluem intervenções em casos de vício e pop-ups que informem quando se está a falar com IA.
Medidas propostas pela ACC
As regras obrigam os fornecedores a indicar claramente que interlocutor é uma máquina, recorrendo a avisos persistentes para utilizadores com comportamentos de dependência. Além disso, proíbem conteúdos que incentivem suicídio, automutilação, abuso verbal ou manipulação emocional que afectem a saúde mental.
Os reguladores pedem salvaguardas durante o ciclo de vida do produto, incluindo revisões de algoritmo e garantias de segurança de dados. A monitorização em tempo real deve detetar sinais de dependência ou emoções extremas para acionar intervenções adequadas.
Entre na conversa da comunidade