Deepfake-beelden van Gareth Southgate die vloekt nadat de wedstrijd tegen Engeland viraal gaat | Deepfakes

Hij is niet de kalme en bedachtzame Gareth Southgate waaraan het land gewend is, en in de ruige wereld van internethumor is dat waarschijnlijk het punt.

Binnen enkele uren nadat Engeland het veld verliet na hun overwinning in de halve finale tegen Nederland, werden de sociale media overspoeld met leugens over de teammanager, met krachttermen en zeer onkarakteristieke vertalingen van de Engelse coach na de wedstrijd.

“Het lijkt erop dat ik ze vandaag in een dikke Rizla heb gestopt”, zegt de nep-Southgate in een video die op TikTok is geplaatst na de dramatische overwinning van Engeland op Nederland in de halve finale. De video’s maken gebruik van kunstmatige intelligentie-instrumenten om de stem van Southgate te repliceren en de onderste helft van zijn gezicht te manipuleren in een amateurpoging tot lipsynchronisatie. Ongetwijfeld zullen er na de finale van zondag nog meer volgen, ongeacht de uitslag.

De Engelse manager wordt algemeen beschouwd als een embleem van de natie, maar in dit geval is hij het symbool van een internettrend: de deepfake-meme.

Net als vroeger beeldbewerking zijn door kunstmatige intelligentie gegenereerde nepvideo’s (deepfakes) een belangrijk hulpmiddel geworden in de gereedschapskist van de internetgrappenmaker.

“Deepfakes worden de nieuwe inhoud die gefotografeerd moet worden”, zegt Bahareh Heravi, professor aan het Institute for Human-Centered Artificial Intelligence van de Universiteit van Surrey. “Nu kunnen mensen verschillende AI-gebaseerde tools gebruiken om inhoud te creëren die vergelijkbaar is met wat ze vroeger deden met Photoshop en videobewerkingstools. Maar nu is het verbeterd met veel grotere mogelijkheden voor het genereren van video en audio.”

In het eenvoudigste geval kunnen iedereen met face-swapping-apps eenvoudig het ene gezicht door het andere in een videoclip vervangen, wat in 2018 een grote technische prestatie oplevert met slechts één druk op de knop. Recente voorbeelden zijn onder meer Rishi Sunak en Keir Starmer als Del Boy en Rodney Trotter en Noel Gallagher als een reeks Ieren, waaronder Roy Keane in een schijnbaar grapje naar de verwijzingen van de rockster naar zijn Ierse afkomst in interviews.

In combinatie met tools voor het klonen van stemmen, zoals die van ElevenLabs, is het mogelijk om een ​​stap verder te gaan en een compleet script te schrijven dat je nieuwe nep-beroemdheid kan lezen. Als je video’s hebt gezien van Britse politici die zich voordoen als Twitch Minecraft-streamers, weet je dat de resulterende creaties rijk kunnen zijn aan grappen en verwijzingen, met alleen een vreemde robotachtige kronkel of een verwrongen mond om je uit de grap te trekken.

Experts van Faculty AI, een in Groot-Brittannië gevestigd bedrijf dat commerciële en Britse overheidscontracten heeft om deepfakes te detecteren, zeiden dat de beelden van Southgate voor de hand liggende kenmerken hadden, waaronder mondbewegingen die niet overeenkwamen met de woorden en onnatuurlijke pauzes en tempo in zijn toespraak. Het meest voor de hand liggende teken is natuurlijk dat Engelse fans weten dat Southgate nooit op zo’n manier over zijn spelers zou praten – Harry Kane, Phil Foden en Jack Grealish behoren tot de spelers die door hun nepbaas van de ingewanden zijn ontdaan.

De faculteit zei dat deepfakes op het gebied van AI-video vorig jaar waarschijnlijk een omslagpunt hebben bereikt met een video waarin de met sterren bezaaide catwalk van Balenciaga opnieuw wordt verbeeld, en voegde eraan toe dat op AI gebaseerde fraude waarschijnlijk een “grotere bedreiging voor de samenleving” vormde. ITV’s Deepfake Neighbour Wars, met simulaties van sterren als Idris Elba en Kim Kardashian, liet ook zien dat het concept mainstream werd.

De faculteit zegt echter dat generatieve AI – de term voor systemen als ChatGPT of Midjourney die overtuigende tekst, audio en afbeeldingen produceren uit eenvoudige zoekopdrachten – zo snel verbetert dat ‘handmatige detectie alleen binnenkort niet voldoende zal zijn om de verspreiding te voorkomen’. van echt schadelijke inhoud.” .

De FA zei: “Zoals we doen met alle schadelijke inhoud, zullen we stappen ondernemen om de aanstootgevende video’s te verwijderen.”

sla de nieuwsbriefpromotie over

De bedoeling van zulke grappenmakers is zelden om direct te misleiden, maar dat betekent niet dat grappen geen verwarring kunnen veroorzaken. Er is geen parodie op internet die uiteindelijk niet kan worden aangezien voor een voorbeeld van waar het de spot mee drijft – een fenomeen dat zo wijdverbreid is dat het bijna twintig jaar geleden de naam ‘Wet van Poe’ kreeg, nadat een commentator opmerkte hoe moeilijk het is om extreme standpunten te satiriseren. Net als bij artikelen uit het tijdschrift Onion of afbeeldingen die zijn gemaakt voor de humorwebsite B3ta, is het heel gebruikelijk dat virale deepfakes opnieuw worden gedeeld, met steeds ongeloviger commentaar waarin wordt gevraagd of de beelden echt zijn of niet. Sommige Southgate-clips zijn gemarkeerd als door AI gemaakt.

De beelden van Southgate worden op sociale media zwaar onder de loep genomen. Op YouTube, waar veel nep-Southgate-clips te vinden zijn, werd één deepfake die na de wedstrijd tegen Slowakije werd gepost 390.000 keer bekeken, terwijl acht video’s op het TikTok-account gewijd aan Southgate-namaakproducten in totaal meer dan een miljoen keer bekeken waren. Het TikTok-account linkt naar een eBay-pagina waarop aangepaste AI-berichten van Southgate worden verkocht, met de toevoeging: “als je wat scheldwoorden wilt, laat het ons weten”.

De richtlijnen van TikTok vereisen het labelen van realistische AI-inhoud en laten de persoonlijkheid van een publieke figuur toe ‘in bepaalde artistieke of humoristische omgevingen’. YouTube heeft zijn moderatiebeleid gewijzigd om mensen de mogelijkheid te bieden om de verwijdering van deepfakes aan te vragen, hoewel het zegt dat het zal overwegen of een video parodie of satire is voordat het besluit de video te verwijderen.

“Voor publieke figuren liggen de zaken niet in hun handen omdat alles ten onrechte aan hen kan worden toegeschreven”, zegt Heravi, eraan toevoegend dat ze zich vooral zorgen maakt over audio omdat er geen visuele aanwijzingen zijn om een ​​diep nepstem te herkennen. “We kunnen echter verwachten dat de zaken zullen verbeteren naarmate we wachten op betere tools om deepfakes te detecteren, en nog belangrijker, naarmate het publiek zich meer bewust wordt van en geïnformeerd wordt over deepfakes.”

Fake video is niet de enige plek waar generatieve AI de productiememes hervormt. Meme-generatoren, geleid door Glyph, zijn begonnen bijna het hele proces van het creëren van humor te automatiseren. Voor memes met een vast formaat, zoals ‘tsjaad/virgin’ of ‘stop met wiskunde’, kunnen gebruikers hele sjablonen maken die een zorgvuldig gevoed Large Language Model (LLM) voor het genereren van tekst combineren met een beeldgenerator voor afbeeldingen en een gestandaardiseerd structuur om ze allemaal samen te brengen. Het resultaat is een tool waarmee je een meme kunt maken over waarom je ‘voetbaltoernooien moet stoppen’ en binnen enkele seconden een waarschuwing krijgt dat ‘THIGGING THE BALL NIET VOOR HET BEPALEN VAN NATIONALE TROTS IS’.

De titel van dit artikel is op 15 juli 2024 gewijzigd om de inhoud van het artikel beter weer te geven.