Hoe kan ik audiovervalsingen herkennen? – DW – 14.08.2024

Suggereerde de voormalige Amerikaanse president Barack Obama dat de Democraten achter de mislukte moordaanslag op zijn opvolger, Donald Trump, zaten?

In de VS circuleren verschillende audio-opnamen waarop te zien is dat Obama met zijn voormalige adviseur David Axelrod praat over de komende Amerikaanse presidentsverkiezingen in november.

In een van de fragmenten zegt een stem die lijkt op die van Obama: “Het was hun enige kans en deze idioten hebben het verprutst. Als ze zich gewoon van Trump hadden kunnen ontdoen, hadden we hun overwinning tegen elke Republikeinse kandidaat verzekerd.”

Maar de audio is geïdentificeerd als nep, wat betekent dat Obama dit nooit heeft gezegd. In plaats daarvan wordt het geluid synthetisch gegenereerd met behulp van kunstmatige intelligentie (AI).

NieuwsGuardwaakhond van desinformatie en media in de Verenigde Staten, publiceerde een analyse van de audiobestanden. Hij gebruikte meerdere AI-detectietools en interviewde een digitale forensisch expert voordat hij tot de conclusie kwam dat ze nep waren. Hij sprak ook met de woordvoerder van Obama, die bevestigde dat ze niet authentiek waren.

Obama is niet de enige politicus met een valse stem. Eerder dit jaar werd audio gegenereerd door AI van de Amerikaanse president Joe Biden heeft de kiezers bij de voorverkiezingen in New Hampshire opgeroepen niet te stemmen.

En het is niet alleen een probleem in de Verenigde Staten. Vorig jaar, vlak voor de verkiezingen in Slowakije, werd een audio-fake vrijgegeven waarin de leider van de Liberale Partij, Michal Simecka, werd nagebootst. In Groot-Brittannië is de Londense burgemeester Sadiq Khan ook het slachtoffer geworden van een nep-AI-opname waarop hij controversiële opmerkingen zou maken.

Deepfakes: verkiezingen manipuleren met behulp van kunstmatige intelligentie

Om deze video te bekijken, schakel JavaScript in en overweeg een upgrade naar een webbrowser die HTML5-video ondersteunt

Deepfakes van audio zijn een aanzienlijke bedreiging voor desinformatie geworden, vooral in tijden van politieke onzekerheid, zoals verkiezingen.

Makkelijker te maken, moeilijker te ontrafelen

Door AI gegenereerde audiospoofs kunnen bijzonder schadelijk zijn tijdens verkiezingscycli, omdat ze zo gemakkelijk te creëren en te verspreiden zijn.

“Ze vereisen minder trainingsgegevens en rekenkracht – vergeleken met videofilms – om bijna realistische resultaten te produceren”, zegt Anna Schild, een media- en communicatie-expert in het innovatieteam van DW.

Ze onderzocht de impact van audio-fakes en legt uit waarom ze snel in populariteit groeien.

“Hun uiteenlopende toepassingen, van geautomatiseerde oproepen tot spraakberichten en video-interceptie, bieden veel verschillende kanalen voor verspreiding”, aldus Schild.

Audio-deepfakes zijn ook moeilijker te detecteren dan andere vormen van desinformatie.

“Audio-fakes zijn iets moeilijker te identificeren dan video-fakes, omdat we simpelweg minder aanwijzingen hebben”, vertelde Nicolas Müller, een machine learning-ingenieur bij het Duitse Fraunhofer Instituut voor Toegepaste en Geïntegreerde Veiligheid, aan DW.

“In video hebben we geluid, video en een zekere synchroniciteit daartussen”, zegt Müller, die studeerde het vermogen van mensen om valse opnames te detecteren. Hij en zijn collega’s ontdekten dat er in audiobestanden minder elementen zijn waarop mensen kunnen vertrouwen om erachter te komen of een opname authentiek is of niet.

Dus wat kunnen gebruikers doen als ze een audiobestand tegenkomen waarvan ze denken dat het door AI is gemaakt?

Eén oplossing zou zijn om standaardverificatietechnieken te combineren met het gebruik van AI-software die gespecialiseerd is in het identificeren van audiospoofing.

Burgemeester van Londen Sadiq Khan spreekt op het podium voor supporters
De stem van de Londense burgemeester Sadiq Khan werd gekloond met behulp van AI.Afbeelding: Peter Nicholls/Getty Images

Verfijning van de zintuigen

Een manier om te controleren of audio-opnamen echt zijn of niet, is door te controleren of het bestand patronen bevat die op AI-interferentie kunnen duiden.

In het voorbeeld van Barack Obama hierboven zou dit betekenen dat het verdachte bestand wordt vergeleken met een bekende en geverifieerde audio-opname van zijn stem om eventuele afwijkingen van Obama’s normale manier van spreken te vinden.

Dit kunnen verschillende uitspraken, onnatuurlijke pauzes of onrealistische ademhalingspatronen zijn.

Als u de betreffende audio nader wilt bekijken, kunt u bovendien controleren op achtergrondgeluiden of onnatuurlijke geluiden.

Het vinden van deze aanwijzingen kan moeilijk zijn voor ongetrainde luisteraars, maar er zijn verschillende hulpmiddelen bedacht om mensen te helpen dit soort verkeerde informatie te herkennen.

Eén daarvan is het Digger deepfake-detectieprojectontworpen in samenwerking met DW. Het project ontwikkelde praktische oefeningen waarmee mensen hun kritische luistervaardigheid konden trainen.

Het team van Nicolas Müller ontwikkelde ook een spel voor deelnemers om te testen hoe goed ze audio-fakes kunnen herkennen.

Schermafbeelding met verschillende audiobestanden, zodat gebruikers kunnen zien of ze echt of synthetisch zijn
Projecten zoals Digger deepfake-detectie hebben praktische oefeningen voor gebruikers ontwikkeld.Afbeelding: DW

Het gebruik van AI-tools om AI-desinformatie te bestrijden

Een extra verificatielaag omvat het gebruik van software die kunstmatige intelligentie ondersteunt en is getraind om audiolekken te detecteren.

In ons synthetische Obama-stemvoorbeeld gebruikte NewsGuard deepfake-checkers zoals TrueMedia die een deepfake-detectorbot heeft die naar eigen zeggen kan reageren op gebruikersverificatieverzoeken op sociale mediaplatform X (voorheen Twitter).

Fraunhofer ontwikkelde ondertussen Deepfake Totaleen platform waar gebruikers verdachte audiobestanden kunnen uploaden om te analyseren. Alle geüploade bestanden worden beoordeeld op de “fake-o-meter”, die de waarschijnlijkheid aangeeft dat het bestand nep is.

Het is echter belangrijk om te benadrukken dat deepfake-detectietools niet onfeilbaar zijn. Hoewel ze de waarschijnlijkheid kunnen inschatten dat een bestand door AI wordt gegenereerd, zijn ze niet altijd accuraat. Daarom moeten dergelijke tools altijd met voorzichtigheid worden gebruikt, als een van meerdere verificatiestappen.

Dit kan het beoordelen van sites en platforms voor factchecking omvatten om te zien of de betreffende audio al door andere factcheckers is ontkracht.

Verschillende mediakanalen hebben ook tools ontwikkeld om audiospoofing te identificeren, zoals VerificAudiovan het Spaanse mondiale mediabedrijf PRISA Media, dat tot doel heeft vervalsingen in de Spaanstalige wereld op te sporen.

Jose Gutierrez van PRISA Media legde aan DW uit dat de tool gebaseerd is op twee door kunstmatige intelligentie aangedreven processen: terwijl de eerste verdachte audiobestanden vergelijkt met authentieke audio-opnames van dezelfde persoon, analyseert de tweede akoestische kenmerken zoals bandbreedte, toonhoogte, frequentie en geluidstexturen.

Gutierrez benadrukte ook dat deze tool geen definitieve antwoorden biedt, maar percentages van geloofwaardigheid.

Schermafbeelding van het project Hoe te controleren met verschillende cirkels die verschillende controleopties tonen
Op de webpagina ‘Hoe te verifiëren’ vindt u hulpmiddelen waarmee u de inhoud, bronnen en contextuele informatie kunt verifiëren.Afbeelding: DW

Contextcontrole

Als dit allemaal te ingewikkeld of technisch lijkt, wat ook helpt bij het identificeren van nagemaakte audio, is door je te concentreren op meer traditionele controlevaardigheden die niet exclusief zijn voor audio-opnamen.

Het innovatieteam van DW stelt voor om in te zoomen om de inhoud, bron en andere relevante informatie over het betreffende bestand te controleren. Ze vermelden een aantal werkinstrumenten op een website genaamd “How to Check”.

Enkele nuttige tips zijn onder meer het vergelijken van audio-inhoud met bekende feiten, het controleren van de socialemediakanalen van de persoon en het zoeken naar aanvullende context op vertrouwde nieuwsbronnen.

Uiteindelijk draait het allemaal om het gebruik van een mix van technieken. Zoals DW Innovation opmerkt: “Er is geen oplossing met één knop die kan helpen bij het detecteren van welke vorm van audiomanipulatie dan ook.”

Dit artikel maakt deel uit van de DW Fact Check-serie over digitale geletterdheid. Andere artikelen zijn onder meer:

En u kunt hier meer lezen over hoe DW nepnieuws controleert.

Bewerkt door Rachel Baig