Het nieuwe Chinese videogeneratiemodel lijkt politiek gevoelige onderwerpen te censureren

Een krachtig nieuw AI-model voor het genereren van video’s is vandaag op grote schaal beschikbaar geworden, maar er zit een addertje onder het gras: het model lijkt onderwerpen te censureren die door de overheid in het land van herkomst, China, als te politiek gevoelig worden beschouwd.

Het Kling-model, ontwikkeld door het in Peking gevestigde bedrijf Kuaishou, werd eerder dit jaar gelanceerd op een wachtlijst voor gebruikers met een Chinees telefoonnummer. Vandaag verscheen het voor iedereen die zijn e-mailadres wil doorgeven. Nadat ze zich hebben aangemeld, kunnen gebruikers zoekopdrachten invoeren om het model video’s van vijf seconden te laten genereren van wat ze beschrijven.

Kling werkt vrijwel zoals geadverteerd. De 720p-video’s, die een minuut of twee nodig hebben om te genereren, wijken niet ver af van de vraag. Kling lijkt natuurkunde te simuleren, zoals ritselende bladeren en stromend water, maar ook video-genererende modellen zoals AI-startup Runway’s Gen-3 en OpenAI’s Sora.

Maar Kling helemaal zal niet clips over specifieke onderwerpen genereren. Notities als “Democratie in China”, “Chinese president Xi Jinping loopt over straat” en “Protesten op het Tiananmen-plein” geven een niet-specifieke foutmelding.

Kling AI
Afbeeldingscredits: Kuaishou

Het filteren lijkt alleen op promptniveau te gebeuren. Kling ondersteunt het animeren van stilstaande beelden en zal bijvoorbeeld zonder bezwaar een video met een portret van Jinping genereren, zolang de begeleidende vraag Jinping niet bij naam vermeldt (bijvoorbeeld “Deze man houdt een toespraak”).

We hebben Kuaishou benaderd voor commentaar.

Kling AI
Afbeeldingscredits: Kuaishou

Het merkwaardige gedrag van Kling is waarschijnlijk het gevolg van de intense politieke druk van de Chinese overheid op generatieve AI-projecten in de regio.

Eerder deze maand meldde de Financial Times dat AI-modellen in China zullen worden getest door China’s belangrijkste internettoezichthouder, de Cyberspace Administration of China (CAC), om ervoor te zorgen dat hun reacties op gevoelige onderwerpen ‘socialistische kernwaarden belichamen’. CAC-functionarissen moeten de modellen vergelijken in termen van hun antwoorden op verschillende vragen, volgens het rapport van de Financial Times – waarvan vele betrekking hebben op Jinping en kritiek op de Communistische Partij.

Naar verluidt is de CAC zo ver gegaan dat ze een zwarte lijst heeft voorgesteld van bronnen die niet kunnen worden gebruikt om AI-modellen te trainen. Bedrijven die modellen ter beoordeling opsturen, moeten tienduizenden vragen voorbereiden om te testen of de modellen ‘veilige’ antwoorden bieden.

Het resultaat is AI-systemen die weigeren te reageren op onderwerpen die de woede van Chinese toezichthouders zouden kunnen wekken. Vorig jaar onthulde de BBC dat Ernie, het vlaggenschip van de kunstmatige intelligentie-chatbot van het Chinese bedrijf Baidu, vragen weigerde en afwees die als politiek controversieel konden worden beschouwd, zoals “Is Xinjiang een goede plek of “Is Tibet een goede plek?”

Draconisch beleid dreigt de vooruitgang van China op het gebied van AI te vertragen. Ze vereisen niet alleen datamining om politiek gevoelige informatie te verwijderen, maar ze vergen ook een enorme hoeveelheid ontwikkelingstijd die moet worden geïnvesteerd in het creëren van ideologische hekken – hekken die nog steeds kunnen mislukken, zoals Kling illustreert.

Vanuit gebruikersperspectief leidt de Chinese AI-regelgeving al tot twee klassen modellen: sommige worden aangescherpt door intensieve filtering, andere aanzienlijk minder. Is dat echt een goede zaak voor het bredere AI-ecosysteem?