Deepfake-pornografie vereist technische hulpmiddelen en vraagt ​​om regelgeving

Dankzij de huidige generatieve AI-tools is het angstaanjagend eenvoudig om van wie dan ook deepfake-porno te maken. Uit een rapport uit 2023 van Home Security Heroes (een bedrijf dat diensten voor bescherming tegen identiteitsdiefstal beoordeelt) bleek dat het slechts één duidelijk beeld van een gezicht en minder dan 25 minuten kostte om een ​​deepfake-pornovideo van 60 seconden te maken – gratis.

De wereld nam in januari kennis van deze nieuwe realiteit toen expliciete nepafbeeldingen van Taylor Swift op sociale mediaplatforms circuleerden, waarbij één afbeelding 47 miljoen keer werd bekeken voordat deze werd verwijderd. Anderen in de entertainmentindustrie, met name Koreaanse popsterren, hebben ook gezien dat hun foto’s zijn gemaakt en misbruikt – maar dat geldt ook voor mensen die ver van de publieke schijnwerpers staan. Bijna alle slachtoffers hebben echter één ding gemeen: volgens een rapport uit 2023 is 99 procent van de slachtoffers vrouw of meisje.

Deze nijpende situatie spoort tot actie, vooral van vrouwen die er genoeg van hebben. Zoals een oprichter van een startup, Nadia Lee, zegt: “Als de beveiligingstechnologie niet in hetzelfde tempo versnelt als de ontwikkeling van kunstmatige intelligentie, dan zijn we de klos.” Hoewel er veel onderzoek is gedaan naar deepfake-detectoren, hebben ze moeite om de tools voor het genereren van deepfake bij te houden. Bovendien helpen detectoren alleen als het platform geïnteresseerd is in het detecteren van deepfakes, en de meeste deepfake-pornografie wordt gehost op sites die aan het genre zijn gewijd.

“Onze generatie staat voor het Oppenheimer-moment”, zegt Lee, CEO van de Australische startup That’sMyFace. “We hebben dit ding gebouwd” – dat wil zeggen generatieve AI – “en we kunnen er deze of die kant mee op gaan.” Lee’s bedrijf biedt in de eerste plaats hulpmiddelen voor visuele herkenning aan zakelijke klanten die er zeker van willen zijn dat hun logo’s, uniformen of producten niet in pornografie verschijnen (denk bijvoorbeeld aan stewardessen van luchtvaartmaatschappijen). Maar haar langetermijndoel is om een ​​tool te creëren waarmee elke vrouw het hele internet kan scannen op valse foto’s of video’s van haar gezicht.

“Als de beveiligingstechnologie niet in hetzelfde tempo versnelt als de ontwikkeling van kunstmatige intelligentie, dan zijn we genaaid.” -Nadia Lee, dat is mijn gezicht

Een andere oprichter van een startup had een persoonlijke reden om mee te doen. Breeze Liu was in 2020 zelf het slachtoffer van neppornografie; Uiteindelijk vond ze meer dan 800 links naar de nepvideo. Ze voelde zich vernederd, zegt ze, en was geschokt toen ze ontdekte dat ze weinig verhaal had: de politie zei dat ze niets konden doen, en ze moest zelf alle sites identificeren waarop de video verscheen en vragen om de video te verwijderen. die niet altijd succesvol waren. Er moet een betere manier zijn, dacht ze. “We moeten AI gebruiken om AI te bestrijden”, zegt ze.

Liu, die eerder in de technologie werkte, richtte Alecto AI op, een startup vernoemd naar de Griekse godin van de wraak. Met de app die ze aan het bouwen is, kunnen gebruikers gezichtsherkenning implementeren om te controleren of hun imago verkeerd is op grote sociale mediaplatforms (ze overweegt niet om samen te werken met pornoplatforms). Liu wil samenwerken met sociale-mediaplatforms, zodat haar app ook de onmiddellijke verwijdering van aanstootgevende inhoud mogelijk maakt. “Als je de inhoud niet kunt verwijderen, laat je mensen alleen maar echt verontrustende beelden zien en creëer je meer stress”, zegt ze.

Liu zegt dat hij momenteel met Met praat over een pilotprogramma, waarvan hij zegt dat het het platform ten goede zal komen door geautomatiseerde contentmoderatie te bieden. Maar breder gezien zegt ze dat de tool onderdeel zou kunnen worden van de ‘online identiteitsinfrastructuur’, waardoor mensen ook zaken kunnen controleren zoals nepprofielen op sociale media of datingsiteprofielen die bij hun foto zijn geplaatst.

Kan regelgeving deepfake-porno bestrijden?

Het verwijderen van deepfake-materiaal van sociale-mediaplatforms is al moeilijk genoeg; het verwijderen van pornoplatforms is nog moeilijker. Om een ​​betere kans op handhaving te hebben, zijn voorstanders van op afbeeldingen gebaseerde bescherming tegen seksueel misbruik van mening dat regelgeving nodig is, hoewel ze van mening verschillen over welk type regelgeving het meest effectief zou zijn.

Susanna Gibson startte de non-profitorganisatie MyOwnna haar eigen deepfake horrorverhaal. Ze was in 2023 kandidaat voor een zetel in het Virginia House of Delegates toen de officiële Virginia Republikeinse Partij seksuele beelden van haar e-mailde die zonder haar toestemming waren gemaakt en gedeeld, inclusief, zegt ze, screenshots van diep nep-pornografie. Nadat ze de verkiezingen ternauwernood had verloren, wijdde ze zich aan het leiden van wetgevende taken in Virginia en vervolgens in het hele land om op beelden gebaseerde seksuele intimidatie te bestrijden.

‘Het probleem is dat elk land anders is, dus het is een lappendeken van wetten. En sommige zijn aanzienlijk beter dan andere.” —Susanna Gibson, Mijn eigen

Haar eerste overwinning was een wetsvoorstel dat de gouverneur van Virginia in april ondertekende om de bestaande wet op ‘wraakpornografie’ uit te breiden tot meer soorten afbeeldingen. “Het is nog lang niet wat ik denk dat het zou moeten zijn, maar het is een stap in de goede richting om mensen te beschermen”, zegt Gibson.

Hoewel er verschillende federale wetten zijn ingevoerd om de niet-consensuele verspreiding van intieme beelden of, in het bijzonder, zeer valse pornografie expliciet te criminaliseren, hoopt Gibson niet dat die wetten staatswet zullen worden. Er is meer actie op staatsniveau, zegt ze.

“Er zijn momenteel 49 staten, plus DC, die wetten hebben tegen de verspreiding van intieme beelden zonder toestemming”, zegt Gibson.Maar het probleem is dat elke staat anders is, dus het is een lappendeken van wetten. En sommige zijn aanzienlijk beter dan andere.” Gibson merkt op dat bijna alle wetten het bewijs vereisen dat de dader handelde met de bedoeling het slachtoffer lastig te vallen of te intimideren, wat erg moeilijk te bewijzen kan zijn.

Tussen de verschillende wetten en voorgestelde nieuwe wetten bestaat er aanzienlijke onenigheid over de vraag of de verspreiding van deepfake-pornografie als een strafrechtelijke of civiele zaak moet worden beschouwd. En als het civiel is, wat betekent dat slachtoffers het recht hebben om schadevergoeding te eisen, bestaat er onenigheid over de vraag of slachtoffers de personen moeten kunnen aanklagen die de deepfake-porno hebben verspreid of de platforms die deze hosten.

Buiten de Verenigde Staten bestaat er een nog grotere lappendeken van beleidsmaatregelen. In het Verenigd Koninkrijk heeft de Online Safety Act uit 2023 de verspreiding van deepfake-pornografie strafbaar gesteld, en een dit jaar voorgesteld amendement zou ook de creatie ervan strafbaar kunnen stellen. De Europese Unie heeft onlangs een richtlijn aangenomen ter bestrijding van geweld en cybergeweld tegen vrouwen, waaronder de verspreiding van deepfake-pornografie valt, maar de lidstaten hebben tot 2027 de tijd om de nieuwe regels ten uitvoer te leggen. In Australië heeft een wet uit 2021 de publicatie van intieme afbeeldingen zonder toestemming tot een civiel misdrijf gemaakt, maar de nieuw voorgestelde wet heeft tot doel er een strafbaar feit van te maken en ook expliciet om te gaan met nepafbeeldingen. Zuid-Korea heeft een wet die rechtstreeks handelt over zeer namaakmateriaal, en in tegenstelling tot veel andere is er geen bewijs van kwade bedoelingen vereist. China heeft een alomvattende wet die de verspreiding van ‘synthetische inhoud’ aan banden legt, maar er is geen bewijs dat de regering de regelgeving heeft gebruikt om deepfake-pornografie hard aan te pakken.

Terwijl vrouwen wachten op regelgeving, kunnen diensten van bedrijven als Alecto AI en That’sMyFace de leemten opvullen. Maar de situatie doet denken aan de verkrachtingsfluitjes die sommige stadsvrouwen in hun tas dragen, klaar om om hulp te roepen als ze in een donker steegje worden aangevallen. Het is zeker nuttig om zo’n instrument te hebben, maar het zou beter zijn als onze samenleving seksuele predatie in al zijn vormen zou aanpakken en zou proberen ervoor te zorgen dat aanvallen überhaupt niet plaatsvinden.

Uit artikelen op uw website

Gerelateerde artikelen op internet