Audio-deepfakes van politici zijn goedkoop en gemakkelijk te maken: NPR

Kiezers brachten hun stem uit voor de voorverkiezingen in Georgië in een stembureau op 21 mei 2024 in Atlanta.  Veel functionarissen en onderzoekers zijn bezorgd dat geluidsbanden van politici kunnen worden gebruikt om de verkiezingen van dit jaar te beïnvloeden.

Kiezers brachten hun stem uit voor de voorverkiezingen in Georgië in een stembureau op 21 mei 2024 in Atlanta. Veel functionarissen en onderzoekers zijn bezorgd dat geluidsbanden van politici kunnen worden gebruikt om de verkiezingen van dit jaar te beïnvloeden.

Elia Nouvelage/Getty Images


onderschrift verbergen

ondertiteling wisselen

Elia Nouvelage/Getty Images

Enkele van de meest populaire AI-gestuurde tools voor stemklonen stellen gebruikers in staat zich voor te doen als politieke leiders, ondanks waarborgen die bedoeld zijn om misbruik te voorkomen, aldus een nieuw rapport, dat zorgen oproept over digitale verzinsels tijdens een toch al controversieel verkiezingsjaar.

“Generatieve AI stelt slechte acteurs in staat om voor bijna niets beelden, audio en video te produceren die hun leugens op een ongekende schaal en geloofwaardigheid vertellen”, zegt het Center for Countering Digital Hate in een rapport. “Dit rapport laat zien dat AI-tools voor het klonen van stemmen … wijd openstaan ​​voor electoraal misbruik.”

Het rapport loopt vooruit op verschillende grote verkiezingen over de hele wereld dit jaar, onder meer in de VS, het VK en de Europese Unie. Ambtenaren en onderzoekers over de hele wereld zijn bezorgd dat zich snel ontwikkelende kunstmatige-intelligentietechnologieën kunnen worden gebruikt om verdeeldheid uit te buiten en chaos te zaaien tijdens verkiezingen.

Een Brits-Amerikaanse non-profitorganisatie identificeerde zes populaire, openbaar beschikbare tools voor het klonen van stemmen met behulp van kunstmatige intelligentie en probeerde de stemmen van acht politici te genereren: president Joe Biden, vicepresident Kamala Harris, voormalig president Donald Trump, de Britse premier Rishi Sunak, Labour-leider Keira Starmer, voorzitter van de Europese Commissie Ursula von der Leyen, commissaris voor de interne markt van de Europese Unie Thierry Breton en de Franse president Emmanuel Macron. Iedereen behalve Macron staat dit jaar op de stemming.

ElevenLabs, het technologiebedrijf wiens software werd gebruikt om de stem van Biden te imiteren tijdens de voorverkiezingen in New Hampshire, blokkeerde onderzoekers in het klonen van Amerikaanse en Britse politici, maar genereerde stemmen van politici op het vasteland van Europa.

Met andere tools konden onderzoekers alle stemmen die ze probeerden klonen. Drie tools – Descript, Invideo AI en Veed – vereisten dat samples een specifieke verklaring moesten zijn, met uitzondering van het gebruik van openbare beelden. Onderzoekers hebben deze beperkingen omzeild door gekloonde stemmen te gebruiken van AI-tools die deze vereiste niet hebben.

“Sommige van de incidenten waar we ons het meest zorgen over maakten, waren audiobestanden”, zegt Dan Weiner, directeur van het Elections and Government Program van het Brennan Center. ‘Geluid is eerlijk gezegd gemakkelijker te klonen. En weet je, de meesten van ons laten zich eerder voor de gek houden door het redelijk overtuigende geluid van een prominente publieke figuur.’

In januari, vóór de voorverkiezingen in New Hampshire, verscheen een deepfake van de stem van president Joe Biden, geproduceerd door ElevenLabs-technologie. In maart ging een nepvideo van een presidentskandidaat in Slowakije die opschepte over het manipuleren van stembureaus en het verhogen van de bierprijs, voorafgaand aan de verkiezingen viraal. De kandidaat verloor de verkiezing van een pro-Russische tegenstander, al is moeilijk vast te stellen welk effect de nepbeelden op de uitslag hadden.

In een verklaring aan NPR zei ElevenLabs dat ze “actief de stemmen blokkeren van publieke figuren die een hoog risico lopen op misbruik” en “erkennen dat er meer werk aan de winkel is.” Het bedrijf zegt dat het hoopt dat concurrenten vergelijkbare functies zullen inschakelen.

De andere twee tools, Speechify en PlayHT, hebben nog minder vangrails. Speechify heeft, net als eerdere providers, beleid dat klonen zonder toestemming of misleidende inhoud verbiedt, maar er lijkt geen handhaving van het beleid te zijn. PlayHT heeft helemaal geen dergelijk beleid. Ze zijn ook goed in het maken van overtuigende klonen.

CCDH-onderzoekers zeiden dat elke opname waar ze naar luisterden met de tools geloofwaardig klonk, wat aanleiding gaf tot bezorgdheid dat kwaadwillende actoren de tools zouden kunnen gebruiken om media-imitators van reguliere politici te verzinnen.

“Het laat zien dat als sommige van deze tools kwetsbaar zijn, ze in feite allemaal kwetsbaarder worden”, zegt Callum Hood, hoofd onderzoek bij CCDH.

Vertegenwoordigers van Descript, Invideo AI, Veed, Speechify en PlayHT reageerden op het moment van publicatie niet op verzoeken om commentaar.

CCDH heeft eerder verschillende door AI aangedreven tools voor het genereren van afbeeldingen getest om te zien of deze kunnen worden gebruikt om realistische en misleidende beelden van politici te creëren. Hood zegt dat beeldgeneratoren meer vangrails hebben.

Een andere uitdaging met deepfake-audio is dat het moeilijker te detecteren is met technologische middelen, zo bleek uit het NPR-experiment. Dit maakt het voor sociale-mediabedrijven moeilijker om nepgeluid te detecteren in vergelijking met afbeeldingen en video’s die zich online verspreiden.

Weiner van het Brennan Center zegt dat regelgeving nodig is om de dreiging het hoofd te bieden. Veel staatswetgevers hebben het gebruik van deepfakes om het electoraat te misleiden verboden, en de federale regering overweegt ook regulering. Hij zegt dat andere soorten politieke inhoud moeten worden overwogen, zoals materiaal dat gericht is op het lastigvallen en intimideren van kandidaten of het ten onrechte in diskrediet brengen van verkiezingen.

Naast regelgeving met betrekking tot specifieke schadelijke scenario’s is het volgens Weiner belangrijk om transparantie te eisen, inclusief het labelen van alle politieke inhoud die door kunstmatige intelligentie wordt gegenereerd.

“Kijkers of luisteraars hebben het recht om te weten dat wat ze zien echt is. En dan kunnen ze de overtuigingskracht van dat beeld of dat geluid dienovereenkomstig afwegen”, zei hij.

Sommige socialemediaplatforms hebben gezocht naar vrijwillige openbaarmaking van door AI gegenereerde inhoud, maar er moeten nog handhavingsmechanismen worden ingevoerd.

Hood van CCDH zegt verrast en teleurgesteld te zijn over de onvoorbereidheid van veel technologieleveranciers op de verkiezingen. Hij zegt dat de ervaringen van sociale-mediabedrijven een routekaart hadden moeten bieden. “Deze bedrijven moeten weten waarnaar ze op zoek zijn”, zei hij.