Um novo modelo chinês de geração de vídeo parece estar censurando tópicos politicamente sensíveis

\

Hoje, um poderoso novo modelo de inteligência artificial para geração de vídeos se tornou amplamente disponível - mas há um problema: o modelo parece estar censurando tópicos considerados politicamente delicados pelo governo em seu país de origem, a China.

\

O modelo, Kling, desenvolvido pela empresa chinesa Kuaishou, lançou acesso por lista de espera no início do ano para usuários com número de telefone chinês. Hoje, ele foi disponibilizado para qualquer pessoa disposta a fornecer seu e-mail. Após se inscrever, os usuários podem inserir prompts para o modelo gerar vídeos de cinco segundos do que foi descrito por eles.

\
\
\
\

O Kling funciona praticamente conforme anunciado. Seus vídeos em 720p, que levam um ou dois minutos para serem gerados, não se afastam muito dos prompts. E o Kling parece simular a física, como o farfalhar das folhas e a água fluindo, tão bem quanto os modelos de geração de vídeo como o Gen-3 da startup de IA Runway e o Sora da OpenAI.

\

No entanto, o Kling simplesmente não gerará clipes sobre certos assuntos. Prompts como \"Democracia na China\", \"Presidente chinês Xi Jinping andando na rua\" e \"Protestos na Praça da Paz Celestial\" resultam em uma mensagem de erro genérica.

\
Crédito da imagem: Kuaishou
\

A filtragem parece estar acontecendo apenas no nível do prompt. O Kling suporta animação de imagens estáticas e gerará um vídeo de um retrato de Jinping, por exemplo, contanto que o prompt acompanhante não mencione Jinping pelo nome (por exemplo, \"Este homem fazendo um discurso\").

\

Entramos em contato com a Kuaishou para comentar.

\
Crédito da imagem: Kuaishou
\
\
\
\

O comportamento curioso do Kling provavelmente é resultado da intensa pressão política do governo chinês sobre projetos de IA generativa na região.

\

No início deste mês, o Financial Times relatou que modelos de IA na China serão testados pelo principal regulador de internet da China, a Administração do Ciberespaço da China (CAC), para garantir que suas respostas sobre tópicos sensíveis \"encarnem os valores socialistas essenciais\". Os modelos serão avaliados por oficiais da CAC por suas respostas a uma variedade de consultas, de acordo com o relatório do Financial Times - muitas relacionadas a Jinping e críticas ao Partido Comunista.

\
\
\
\

Segundo relatos, a CAC chegou ao ponto de propor uma lista negra de fontes que não podem ser usadas para treinar modelos de IA. Empresas que submetem modelos para revisão devem preparar dezenas de milhares de perguntas projetadas para testar se os modelos produzem respostas \"seguras\".

\

O resultado são sistemas de IA que se recusam a responder sobre tópicos que possam irritar os reguladores chineses. No ano passado, a BBC descobriu que o Ernie, principal modelo de chatbot de IA da empresa chinesa Baidu, se esquivava e desviava ao ser questionado sobre assuntos politicamente controversos, como \"Xinjiang é um bom lugar?\" ou \"Tibete é um bom lugar?\"

\

As políticas draconianas ameaçam retardar os avanços em IA na China. Não apenas exigem a remoção de informações politicamente sensíveis dos dados, mas também tornam necessário investir uma enorme quantidade de tempo de desenvolvimento na criação de proteções ideológicas - proteções que ainda podem falhar, como o Kling exemplifica.

\

Do ponto de vista do usuário, as regulamentações de IA da China já estão levando a dois tipos de modelos: alguns prejudicados por filtragem intensiva e outros decididamente menos. Isso realmente é algo bom para o ecossistema de IA em geral?

\
\