Un nuevo y poderoso modelo de inteligencia artificial para generar videos se volvió ampliamente disponible hoy, pero hay un problema: el modelo parece estar censurando temas que el gobierno de su país de origen, China, considera demasiado sensibles políticamente.
El modelo, Klingdesarrollado por la empresa Kuaishou, con sede en Pekín, se lanzó a principios de año con acceso en lista de espera para usuarios con un número de teléfono chino. Hoy, se implementó para cualquiera que esté dispuesto a proporcionar su correo electrónico. Después de registrarse, los usuarios pueden ingresar indicaciones para que el modelo genere videos de cinco segundos de lo que han descrito.
Kling funciona más o menos como se anuncia. Sus vídeos de 720p, que tardan uno o dos minutos en generarse, no se desvían demasiado de las indicaciones. Y Kling parece simular la física, como el susurro de las hojas y el agua que fluye, tan bien como los modelos de generación de vídeos como Gen-3 de la startup de IA Runway y Sora de OpenAI.
Pero Kling directamente no Generar clips sobre determinados temas. Mensajes como “La democracia en China”, “El presidente chino Xi Jinping caminando por la calle” y “Protestas en la plaza de Tiananmen” generan un mensaje de error no específico.

Parece que el filtrado solo se produce en el nivel de aviso. Kling admite la animación de imágenes fijas y generará sin problemas un video de un retrato de Jinping, por ejemplo, siempre que el aviso que lo acompaña no mencione a Jinping por su nombre (por ejemplo, «Este hombre está dando un discurso»).
Nos comunicamos con Kuaishou para solicitarle comentarios.

El curioso comportamiento de Kling es probablemente el resultado de la intensa presión política del gobierno chino sobre los proyectos de IA generativa en la región.
A principios de este mes, el Financial Times reportado Los modelos de IA en China serán probados por el principal regulador de Internet de China, la Administración del Ciberespacio de China (CAC), para garantizar que sus respuestas sobre temas sensibles “incorporen valores socialistas fundamentales”. Los funcionarios de la CAC evaluarán los modelos por sus respuestas a una variedad de consultas, según el informe del Financial Times, muchas de ellas relacionadas con Jinping y las críticas al Partido Comunista.
Según se informaLa CAC ha llegado al extremo de proponer una lista negra de fuentes que no se pueden utilizar para entrenar modelos de IA. Las empresas que envían modelos para su revisión debe preparar decenas de miles de preguntas diseñadas para probar si los modelos producen respuestas “seguras”.
El resultado son sistemas de IA que se niegan a responder sobre temas que podrían provocar la ira de los reguladores chinos. El año pasado, la BBC encontró que Ernie, el modelo insignia de chatbot de inteligencia artificial de la empresa china Baidu, se mostró reacio y evadió el tema cuando se le hicieron preguntas que podrían percibirse como políticamente controvertidas, como «¿Es Sinkiang ¿Un buen lugar?” o “¿Es Tíbet ¿un buen lugar?»
Las políticas draconianas amenazan con lento Los avances de la inteligencia artificial en China no solo exigen analizar datos para eliminar información políticamente sensible, sino que también exigen invertir una enorme cantidad de tiempo de desarrollo en la creación de barreras ideológicas, barreras que aún podrían fallar, como ejemplifica Kling.
Desde la perspectiva del usuario, las regulaciones de IA de China ya están dando lugar a dos clases de modelos: algunos obstaculizados por un filtrado intensivo y otros Decididamente menos¿Es esto realmente algo bueno para el ecosistema de IA en general?