China Intensifica o Controle sobre a Inteligência Artificial

IA
China Tightens the Reins on AI
Pequim implementou regras rigorosas e mecanismos de fiscalização para manter os grandes modelos de linguagem politicamente seguros, buscando não sufocar a inovação. A abordagem combina filtragem de dados, testes ideológicos, registros e remoções rápidas.

Pequim age rapidamente para tornar a IA politicamente controlável

Arquitetura regulatória

As autoridades chinesas reuniram uma ampla coalizão regulatória: reguladores do ciberespaço, polícia de cibersegurança, laboratórios estatais e grandes empresas de tecnologia participaram da redação das normas. O documento estabelece uma combinação de requisitos técnicos e de governança: amostragem humana de conjuntos de dados de treinamento, questionários ideológicos mensais para os modelos, rotulagem explícita de conteúdo gerado por IA e registro obrigatório de interações dos usuários. Autoridades enquadraram o esforço como uma forma de proteger a estabilidade social — chegando a adicionar a IA a uma estrutura nacional de planejamento de emergência, ao lado de terremotos e epidemias.

As autoridades também enfatizam uma linha vermelha estreita, mas absoluta: qualquer coisa julgada como “incitação à subversão do poder estatal e à derrubada do sistema socialista” é proibida. Os regulamentos listam 31 riscos distintos — desde a promoção da violência até o uso ilegal da imagem de uma pessoa — que as empresas devem filtrar ao compilar material de treinamento e ao implementar serviços.

Dieta de dados e a inspeção pré‑lançamento

Uma das metáforas centrais que as autoridades usam é a de uma dieta de dados. Os sistemas de IA são tão influentes quanto o material com que são alimentados, portanto, as regras forçam as empresas a tratar seus conjuntos de treinamento como ingredientes controlados em uma cozinha. Para cada formato de conteúdo — texto, imagens, vídeo — os desenvolvedores devem realizar amostragens aleatórias e revisão humana de milhares de itens de treinamento. Um limite proposto nas orientações exige o uso de uma fonte apenas se pelo menos 96% do material dessa fonte for considerado seguro de acordo com os 31 critérios de risco.

Antes que um serviço possa ser tornado público, ele deve passar por um exame ideológico. Espera-se que as empresas executem 2.000 comandos de teste projetados para desencadear respostas subversivas ou separatistas e ajustem seus sistemas para que o modelo recuse pelo menos 95% desses comandos. A preparação para esse exame gerou um pequeno mercado privado de consultores e agências de testes que ajudam os fornecedores de IA a elaborar e fortalecer respostas, um processo que especialistas comparam à preparação para o SAT para o lançamento de um produto.

Aplicação, rastreabilidade e vigilância

A aplicação tem sido ativa. As autoridades relataram a remoção de centenas de milhares de itens do que chamaram de conteúdo gerado por IA ilegal ou prejudicial durante uma campanha recente, e derrubaram milhares de produtos de IA por não conformidade. As regras exigem que as plataformas rotulem textos, imagens e vídeos criados por IA, mantenham registros de interações dos usuários e — crucialmente — vinculem os usuários a números de telefone ou identidade nacional para que a disseminação viral anônima possa ser contida.

Essa arquitetura foi projetada para facilitar o rastreamento da procedência do conteúdo e da identidade de quem o gerou. Se um usuário tentar gerar material proibido, espera-se que as plataformas registrem a conversa, suspendam a conta e relatem o incidente. Reguladores locais realizarão verificações aleatórias após o lançamento, e as empresas correm o risco de interrupção rápida dos serviços que não passarem nos testes.

Limites técnicos e evasão

Pesquisadores que testaram modelos chineses no Ocidente relatam um detalhe técnico importante: grande parte da censura política parece ocorrer após o treinamento, nos filtros e camadas de resposta que ficam acima de uma rede neural. Quando pesquisadores baixam e executam alguns modelos chineses localmente, às vezes descobrem que a censura abranda ou desaparece, sugerindo que os “cérebros” dos modelos não são uniformemente limpos de conhecimento sensível — a censura é frequentemente implementada como um controle em tempo de execução, não como uma excisão completa dos dados de treinamento.

Essa distinção é importante porque cria duas vulnerabilidades. Primeiro, torna o sistema dependente de controles operacionais que devem acompanhar usuários altamente motivados que tentam fazer “jailbreak” em modelos com comandos adversariais. Segundo, a arquitetura dividida — um modelo central poderoso com uma camada de filtragem — levanta a questão de saber se o modelo subjacente poderia ser reaproveitado em ambientes sem as mesmas salvaguardas de tempo de execução.

Compensações de segurança e a corrida global

A abordagem da China é uma compensação deliberada entre o controle político e a competitividade tecnológica. Os reguladores preocupam-se explicitamente que restrições excessivamente rígidas possam sufocar a inovação e deixar a China para trás em uma competição global de IA dominada por empresas americanas que enfrentam incentivos regulatórios diferentes. Ao mesmo tempo, as autoridades chinesas têm sido enfáticas sobre os riscos sociais da IA não regulamentada: altos líderes alertaram que a tecnologia apresenta “riscos sem precedentes”, e o programa estatal de adoção de IA — batizado de “IA Plus” — visa integrar a IA na maioria dos setores-chave até 2027, mantendo salvaguardas rigorosas em vigor.

As pressões duplas — ser de classe mundial em benchmarks e permanecer ideologicamente seguro — produziram modelos com boa pontuação em muitas categorias técnicas, ao mesmo tempo em que oferecem respostas higienizadas sobre tópicos politicamente sensíveis. Analistas independentes observam que isso pode tornar os chatbots chineses objetivamente mais seguros em algumas métricas, como a redução de conteúdo violento ou pornográfico. Mas esses mesmos sistemas podem ser mais fáceis de contornar em inglês ou em assuntos técnicos, o que significa que um usuário motivado ainda pode extrair instruções operacionais perigosas ou explorar fraquezas do modelo.

Como as empresas estão se adaptando

As grandes empresas nacionais escolheram, em grande parte, cooperar. Grupos da indústria e empresas líderes participaram da redação das normas de novembro, e vários players de renome estão agora alinhando publicamente o desenvolvimento de produtos com os requisitos de amostragem, teste e rastreabilidade da regulamentação. O Estado também combinou medidas coercitivas com incentivos: o roteiro nacional de IA e a iniciativa “IA Plus” criam estímulos para o desenvolvimento de modelos que sejam úteis nas prioridades governamentais, defesa, saúde e manufatura.

Esse modelo de parceria pode acelerar a implementação dentro de um mercado nacional regulamentado, mas corre o risco de produzir modelos que tenham melhor desempenho em um ambiente com amplos controles de conteúdo e acesso restrito a conjuntos de dados estrangeiros. À medida que os modelos se tornam mais capazes, manter esse hiato de desempenho entre implementações domésticas restritas e sistemas globais sem restrições se tornará mais difícil e exigirá mais recursos.

Implicações mais amplas

As regulamentações da China articulam uma visão clara: a IA é tanto um ativo econômico quanto de segurança nacional que deve ser moldado para apoiar a estabilidade política. O mix de políticas — triagem pesada de conjuntos de dados, testes ideológicos obrigatórios, rastreabilidade, registro e remoções ativas — é uma resposta ao problema de manter modelos de linguagem em rápida evolução alinhados com as prioridades do Estado. É também um experimento ao vivo sobre se um setor tecnológico grande e dinâmico pode ser direcionado sem perder a vantagem para rivais no exterior.

O resultado terá importância além das fronteiras da China. Se a filtragem em tempo de execução e os controles de acesso se mostrarem robustos, o resultado poderá ser um conjunto de modelos ajustados internamente que são seguros para a internet chinesa, mas menos abertos para uso internacional. Se esses controles forem frágeis ou se pesquisadores talentosos partirem para ambientes menos restritos, o país poderá enfrentar exatamente a lacuna de competitividade que seus reguladores temem.

Por enquanto, Pequim parece determinada a encontrar um equilíbrio delicado: impulsionar a IA na economia e nas forças armadas, enquanto constrói um regime de aplicação que limita a capacidade da tecnologia de estimular a dissidência política. Se esse equilíbrio poderá ser sustentado à medida que os modelos se tornam mais inteligentes — e à medida que a competição global se intensifica — é uma das questões tecnológicas definidoras ao entrarmos em 2026.

Fontes

  • Cyberspace Administration of China (padrões regulatórios e orientações sobre conteúdo de IA)
  • Carnegie Endowment for International Peace (análise da política de IA chinesa)
  • Laboratórios estatais chineses e grupos de pesquisa de IA domésticos (práticas de modelos e conjuntos de dados)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Qual é o principal método que Pequim utiliza para manter a IA politicamente segura?
A Pequim utiliza uma combinação de filtragem de dados, testes ideológicos, registros e remoções rápidas para manter a IA politicamente segura. Órgãos reguladores, desde autoridades do ciberespaço até grandes empresas de tecnologia, elaboraram normas que exigem a amostragem humana de conjuntos de dados de treinamento, questionários ideológicos mensais para os modelos, rotulagem explícita de conteúdo gerado por IA e o registro obrigatório das interações dos usuários, tudo com o objetivo de proteger a estabilidade social e estabelecer uma linha vermelha rígida contra a subversão.
Q Quais são os requisitos pré-lançamento que um serviço deve cumprir?
A Antes de serem lançados ao público, os serviços devem passar por um exame ideológico, que inclui a execução de 2.000 prompts de teste projetados para revelar respostas subversivas ou separatistas, e o ajuste do modelo para recusar pelo menos 95% desses prompts. Além disso, as fontes utilizadas para o treinamento devem atender a um limite de segurança de 96% sob 31 critérios de risco, com revisões humanas aleatórias do conteúdo.
Q Como a fiscalização e a rastreabilidade são implementadas?
A As plataformas devem rotular textos, imagens e vídeos criados por IA, manter registros das interações dos usuários e vincular os usuários a números de telefone ou identidade nacional para conter a disseminação anônima. Órgãos reguladores locais realizarão verificações aleatórias após o lançamento e, se material proibido for gerado, a plataforma deve registrar a conversa, suspender a conta e relatar o incidente. As autoridades já removeram centenas de milhares de conteúdos e milhares de produtos de IA por descumprimento das normas.
Q Quais vulnerabilidades os pesquisadores observam na censura dos modelos de IA chineses?
A A censura geralmente opera após o treinamento, em filtros e camadas de resposta, em vez de ser totalmente eliminada dos dados de treinamento. Quando os modelos são executados localmente, a censura pode diminuir ou desaparecer, indicando uma arquitetura dividida com um núcleo poderoso e uma camada de filtragem externa. Isso cria riscos de tentativas de 'jailbreak' e potencial reutilização sem salvaguardas.
Q Qual é o dilema político mais amplo entre controle e inovação?
A A China apresenta a política como um equilíbrio entre o controle político e a competitividade tecnológica: restrições excessivamente rígidas poderiam sufocar a inovação e deixar o país para trás em uma corrida global de IA liderada por empresas americanas. Ao mesmo tempo, as autoridades promovem o programa AI Plus e um roteiro nacional para integrar a IA em setores prioritários até 2027, mantendo as salvaguardas.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!