De Biden Deepfake Robocall is nog maar het begin

‘In de Amerikaanse politiek is desinformatie helaas gemeengoed geworden. Maar nu creëren desinformatie en desinformatie in combinatie met nieuwe generatieve AI-tools een ongekende dreiging waarop we slecht voorbereid zijn”, zei Clarke maandag in een verklaring tegen WIRED. ‘Dit is een probleem dat zowel de Democraten als de Republikeinen samen moeten oplossen. Het Congres moet dit aanpakken voordat de zaken uit de hand lopen.”

Belangengroepen zoals Public Citizen hebben een verzoekschrift ingediend bij de Federal Election Commission om nieuwe regels uit te vaardigen die de openbaarmaking van politieke advertenties vereisen, vergelijkbaar met wat Clarke en Klobuchar hebben voorgesteld, maar hebben nog geen formeel besluit genomen. Dat zei FEC-voorzitter Sean Cooksey, een Republikein, eerder deze maand De Washingtonpost dat de commissie van plan is tegen het begin van de zomer een besluit te nemen. Tegen die tijd zal de Republikeinse Partij Trump waarschijnlijk al als running mate hebben geselecteerd, en zullen de algemene verkiezingen in volle gang zijn.

“Of je nu Democraat of Republikein bent, niemand wil nepadvertenties of robocalls zien waarin je niet eens kunt zien of het jouw kandidaat is of niet”, vertelde Klobuchar maandag aan WIRED. “We hebben federale actie nodig om ervoor te zorgen dat deze krachtige technologie niet wordt gebruikt om kiezers te misleiden en desinformatie te verspreiden.”

Audiovervalsingen zijn bijzonder dodelijk omdat ze, in tegenstelling tot nepfoto’s of -video’s, niet veel visuele aanwijzingen hebben die iemand kunnen helpen herkennen dat er mee is geknoeid, zegt Hany Farid, een professor aan de UC Berkeley School of Information. “Met robocalls is de geluidskwaliteit aan de telefoon niet geweldig, dus het is gemakkelijker om mensen te misleiden met een nepgeluid.”

Farid maakt zich ook zorgen dat telefoontjes, in tegenstelling tot nepberichten op sociale media, eerder een oudere doelgroep zullen bereiken die al kwetsbaar is voor oplichting.

“Je zou kunnen zeggen dat veel mensen erachter kwamen dat deze audio nep was, maar het probleem met voorverkiezingen in de staat is dat zelfs een paar duizend stemmen invloed kunnen hebben op de resultaten”, zegt hij. “Natuurlijk zou dit soort verkiezingsinmenging kunnen plaatsvinden zonder deepfakes, maar de zorg is dat door AI aangedreven deepfakes deze campagnes effectiever en gemakkelijker uit te voeren maken.”

Specifieke regelgeving is achtergebleven, zelfs nu deepfakes zoals degene die de robocall gebruikt, goedkoper en gemakkelijker te produceren zijn geworden, zegt Sam Gregory, programmadirecteur bij Witness, een non-profitorganisatie die mensen helpt technologie te gebruiken om de mensenrechten te bevorderen. “Het klinkt niet meer als een robot”, zegt hij.

“Mensen in het veld hebben echt moeite gehad met de manier waarop je audio labelt om aan te tonen dat het van synthetische oorsprong is”, zegt hij. “Je kunt mensen bijvoorbeeld dwingen om aan het begin van een audiotrack een disclaimer te plaatsen waarin staat dat deze met AI is gemaakt. Als je een slechte acteur bent of iemand die een nep-robocall maakt, doe je dat duidelijk niet.

Zelfs als een stukje audiocontent een watermerk heeft, kan dit worden gedaan op een manier die duidelijk is voor een machine, maar niet noodzakelijkerwijs voor de gemiddelde persoon, zegt Claire Leibowicz, hoofd media-integriteit bij het Partnership on AI. En dat is nog steeds afhankelijk van de goede wil van de platforms die worden gebruikt om de deepfake-audio te genereren. “We hebben ons niet gerealiseerd wat het betekent om deze open source-tools te hebben voor degenen die de wet willen overtreden”, voegt ze eraan toe.