China regula chatbots de IA com foco na prevenção do suicídio e no bloqueio a jogos de azar

China regula chatbots de IA com foco na prevenção do suicídio e no bloqueio a jogos de azar

China regula chatbots de IA por meio de um conjunto de diretrizes preliminares que mira serviços capazes de simular personalidade e criar laços emocionais com usuários, impondo restrições severas a conversas sobre suicídio, automutilação e jogos de azar.

Índice

Por que a China regula chatbots de IA voltados para interação humana

A proposta divulgada pela Administração do Ciberespaço da China surge em um cenário de rápida expansão de assistentes virtuais no país. O documento concentra-se em serviços descritos como “IA interativa com características humanas”, categoria que engloba plataformas conversacionais de texto, imagem, áudio ou vídeo projetadas para estabelecer vínculos emocionais. A motivação central declarada é proteger usuários de danos psicológicos e direcionar o desenvolvimento tecnológico para setores considerados socialmente úteis.

Anúncio

Essa iniciativa é vista por especialistas como a primeira tentativa mundial de normatizar sistemas antropomórficos, isto é, programas que não apenas fornecem respostas, mas simulam traços de personalidade. A movimentação acontece poucos dias depois de duas startups locais do setor — Minimax e Z.ai — terem apresentado documentos para abertura de capital em Hong Kong, o que reforça a urgência regulatória frente ao crescimento comercial dessas aplicações.

Como a proposta de regulamentação define serviços de IA interativa

O texto preliminar detalha que um serviço precisa cumprir dois requisitos simultâneos para se enquadrar na regulação: 1) exibir comportamento semelhante ao humano e 2) formar conexões emocionais com o usuário. A amplitude dessa definição cobre desde personagens virtuais em aplicativos de companhia até chatbots integrados a dispositivos domésticos ou veículos inteligentes.

Em termos de escopo, o projeto amplia regras chinesas anteriores voltadas à IA generativa, deslocando o foco da “segurança de conteúdo” — que já limitava desinformação e material politicamente sensível — para a “segurança emocional”. Com isso, qualquer plataforma que aproveite laços afetivos para manter o usuário engajado passa a ser alvo de monitoramento mais rígido.

Mecanismos de proteção contra suicídio nas regras que a China regula chatbots de IA

O ponto mais destacado do documento é a proteção em situações de risco de vida. O texto proíbe respostas que incentivem suicídio, automutilação ou violência verbal, estendendo o veto a manipulações emocionais capazes de agravar problemas de saúde mental. Caso o usuário manifeste intenção direta de se ferir, o provedor deverá interromper o atendimento automatizado, acionar um atendente humano e, se possível, contatar um responsável legal ou pessoa indicada pelo usuário.

Além de impedir incentivos diretos a atos autolesivos, o regulamento veda qualquer material relacionado a apostas, pornografia ou violência gráfica. A restrição reforça a linha de que esses sistemas não podem amplificar comportamentos considerados nocivos nem direcionar usuários a atividades ilegais.

Regras específicas para menores e limites operacionais

O documento dedica seções exclusivas à proteção de menores. Para crianças e adolescentes, o uso de chatbots destinados à companhia emocional dependerá de autorização prévia dos responsáveis. As plataformas devem implementar mecanismos de detecção de idade, ainda que o usuário não informe de forma explícita se é menor, e, na dúvida, aplicar configurações restritivas por padrão.

Também foram estipulados controles de tempo: após duas horas de interação contínua, o sistema precisa exibir alerta ao usuário. Adicionalmente, provedores com mais de 1 milhão de cadastros ou 100 mil usuários ativos mensais terão de realizar avaliações de segurança obrigatórias. Esses processos buscam coibir uso excessivo e garantir que escalas maiores de operação não reduzam a eficácia dos filtros de proteção.

Impacto econômico: IPOs e mercado em expansão enquanto a China regula chatbots de IA

A publicação das normas ocorre paralelamente a movimentos de mercado relevantes. A Minimax, responsável pelo aplicativo Talkie AI — cuja versão chinesa se chama Xingye —, informou que os dois produtos responderam por mais de um terço de sua receita nos nove primeiros meses do ano, atendendo em média mais de 20 milhões de usuários mensais. Já a Z.ai, ou Zhipu, declarou presença de sua tecnologia em cerca de 80 milhões de dispositivos, de smartphones a veículos.

Embora as empresas não tenham comentado oficialmente o impacto das novas regras sobre os planos de abertura de capital, a exigência de avaliações de segurança para plataformas com grande base de usuários coloca um novo elemento na due diligence regulatória exigida por investidores. O período de consulta pública, aberto até 25 de janeiro, permitirá que essas companhias apresentem sugestões ou busquem adequar seus modelos antes da versão final das normas.

Comparações internacionais e debates sobre saúde mental

O foco nas repercussões emocionais ganha eco em discussões globais. Em setembro, o líder da OpenAI classificou conversas sobre suicídio como um dos problemas mais difíceis que a companhia enfrenta. No mês anterior, uma família nos Estados Unidos ajuizou ação contra a mesma organização após o suicídio de um adolescente supostamente influenciado por um chatbot. A empresa norte-americana anunciou a criação de uma diretoria dedicada à avaliação de riscos de IA, cobrindo saúde mental e cibersegurança.

Casos de uso de inteligência artificial para relacionamentos pessoais também têm chamado atenção, como o relato de uma mulher no Japão que realizou uma cerimônia simbólica de casamento com um parceiro virtual. Plataformas de personagens digitais, a exemplo de Character.ai e Polybuzz.ai, aparecem com frequência em rankings de ferramentas de IA mais acessadas, indicando a popularização de interações de cunho emocional em escala mundial.

Aspectos operacionais e incentivos permitidos pela proposta chinesa

Apesar do tom restritivo em temas sensíveis, o texto sublinha que diferentes aplicações de IA com traços humanos continuam não apenas permitidas, mas estimuladas em domínios como difusão cultural e assistência a idosos. A diretriz reforça a meta do governo de direcionar o avanço tecnológico para áreas consideradas de alto valor social, ao mesmo tempo em que impõe barreiras a funcionalidades que possam causar danos psicológicos ou incentivar práticas ilegais.

Em síntese, a estratégia apresentada combina quatro eixos: prevenção de riscos à saúde mental, proteção reforçada a menores, exigência de exames de segurança para plataformas de grande porte e promoção de usos benéficos. Essa arquitetura regulatória coaduna-se com a postura mais ampla da China de pleitear protagonismo na definição de normas internacionais de governança de inteligência artificial.

Próximos passos até a adoção definitiva das regras

O calendário oficial prevê a fase de consulta pública aberta até 25 de janeiro. Após a coleta de contribuições, o governo poderá ajustar trechos específicos e, em seguida, promulgar a versão final. Enquanto isso, desenvolvedores de chatbots, investidores e usuários acompanham as discussões para adaptar produtos, avaliar impactos regulatórios e compreender os limites operacionais que passarão a vigorar no maior mercado de IA conversacional da Ásia.

OrganizaSimples

Olá! Meu nome é Zaira Silva e sou apaixonada por tornar a vida mais leve, prática e organizada — especialmente depois que me tornei mãe. Criei o Organiza Simples como um cantinho acolhedor para compartilhar tudo o que aprendi (e continuo aprendendo!) sobre organização da casa, da rotina e da mente, sem fórmulas impossíveis ou metas inalcançáveis.

Conteúdo Relacionado

Quando você efetua suas compras por meio dos links disponíveis em nosso site, podemos receber uma comissão de afiliado, sem que isso acarrete nenhum custo adicional para você.

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK