AI overweldigt de inspanningen om kinderroofdieren te vangen, waarschuwen experts | Kunstmatige intelligentie (AI)

De hoeveelheid seksueel expliciete beelden van kinderen die door roofdieren worden gemaakt met behulp van kunstmatige intelligentie overweldigt het vermogen van de wetshandhaving om echte slachtoffers te identificeren en te redden, waarschuwen experts op het gebied van kinderveiligheid.

Aanklagers en kinderveiligheidsgroepen die zich inzetten om misdaden tegen kinderen te bestrijden, zeggen dat door AI gegenereerde beelden zo realistisch zijn geworden dat het in sommige gevallen moeilijk is om te bepalen of echte kinderen daadwerkelijk schade hebben geleden als gevolg van de productie ervan. Eén enkel AI-model kan in korte tijd tienduizenden nieuwe afbeeldingen genereren, en deze inhoud begint het dark web te overspoelen en het reguliere internet te infiltreren.

‘We beginnen berichten te zien van afbeeldingen die een echt kind voorstellen, maar die zijn gegenereerd door kunstmatige intelligentie, maar dat kind is niet seksueel misbruikt. Maar nu is hun gezicht gericht op een kind dat wordt misbruikt”, zegt Kristina Korobov, senior advocaat bij het Zero Abuse Project, een in Minnesota gevestigde non-profitorganisatie voor kinderveiligheid. “Soms herkennen we het beddengoed of de achtergrond in de video of de foto, de dader of de serie waar het uit komt, maar nu wordt er het gezicht van een ander kind op gezet.”

Er worden elk jaar al tientallen miljoenen meldingen gemaakt van echt materiaal over seksueel misbruik van kinderen (CSAM) dat elk jaar online wordt gemaakt en gedeeld, en veiligheidsgroepen en wetshandhavingsinstanties doen hun uiterste best om dit te onderzoeken.

“We verdrinken gewoon in deze dingen”, zei een aanklager van het ministerie van Justitie, die sprak op voorwaarde van anonimiteit omdat ze niet bevoegd waren om in het openbaar te spreken. “Vanuit het perspectief van de wetshandhaving zijn misdaden tegen kinderen een van de terreinen waar de meeste middelen voor beschikbaar zijn en zal er een explosie aan inhoud van AI plaatsvinden.”

Vorig jaar ontving het National Center for Missing and Exploited Children (NCMEC) meldingen van roofdieren die kunstmatige intelligentie op verschillende manieren gebruiken, zoals het invoeren van tekstquery’s om afbeeldingen van kindermisbruik te genereren, het wijzigen van eerder geüploade bestanden om seksueel expliciet en aanstootgevend te zijn, en het instellen van bekende CSAM en het genereren van nieuwe afbeeldingen op basis van die afbeeldingen. In sommige rapporten verwijzen daders naar chatbots om hen te instrueren hoe ze kinderen kunnen vinden voor seks of hoe ze hen schade kunnen toebrengen.

Deskundigen en aanklagers maken zich zorgen over daders die detectie proberen te vermijden door generatieve kunstmatige intelligentie te gebruiken om beelden van kinderslachtoffers van seksueel misbruik te veranderen.

“Bij het vervolgen van zaken in het federale systeem verandert AI niets aan wat we kunnen vervolgen, maar er zijn veel staten waar je moet kunnen bewijzen dat het een echt kind is. Argumenten over de legitimiteit van de beelden zullen bij rechtszaken voor problemen zorgen. Als ik advocaat was, zou ik dat precies beweren’, aldus de aanklager van het ministerie van Justitie.

Het bezit van afbeeldingen van seksueel misbruik van kinderen is strafbaar volgens de Amerikaanse federale wetgeving, en dit jaar zijn er in de VS verschillende arrestaties verricht van vermeende daders die in het bezit waren van CSAM, geïdentificeerd als door AI gegenereerd. In de meeste staten zijn er echter geen wetten die het bezit van seksueel expliciet, door AI gegenereerd materiaal waarin minderjarigen zijn afgebeeld, verbieden. Het maken van afbeeldingen valt helemaal niet onder de bestaande wetten.

In maart heeft de wetgevende macht van de staat Washington echter een wet aangenomen die het bezit van door AI gegenereerde CSAM verbiedt en het willens en wetens onthullen van door AI gegenereerde intieme beelden van andere mensen. In april werd in het Congres een tweeledige wetgeving geïntroduceerd die gericht was op het criminaliseren van de productie van door AI gegenereerde CSAM. Deze werd gesteund door de National Association of Attorneys General (NAAG).


Experts op het gebied van kinderveiligheid waarschuwen dat de toestroom van AI-inhoud de middelen van de NCMEC CyberTipline, die fungeert als een uitwisselingscentrum voor meldingen van kindermisbruik van over de hele wereld, onder druk zal zetten. De organisatie stuurt deze rapporten door naar wetshandhavingsinstanties voor onderzoek, nadat de geografische locatie, de prioriteitsstatus en de vraag of de slachtoffers al bekend zijn, zijn vastgesteld.

“De politie heeft nu een groter volume aan inhoud om mee om te gaan. En hoe weten ze of dit het juiste kind is om te redden? Je weet het niet. Het is een groot probleem”, zegt Jacques Marcoux, directeur onderzoek en analyse bij het Canadian Centre for Child Protection.

Bekende afbeeldingen van seksueel misbruik van kinderen kunnen worden geïdentificeerd aan de hand van digitale vingerafdrukken op de afbeeldingen, ook wel hashwaarden genoemd. NCMEC onderhoudt een database met meer dan 5 miljoen hashwaarden waarmee afbeeldingen kunnen worden vergeleken, een belangrijk hulpmiddel voor wetshandhaving.

Wanneer een bekend beeld van seksueel kindermisbruik wordt verzonden, hebben technologiebedrijven die software gebruiken om deze activiteit te monitoren, de mogelijkheid om dit te onderscheppen en te blokkeren op basis van hun hashwaarde en de gebruiker aan te geven bij de politie.

Materiaal waarvan de hashwaarde niet bekend is, zoals vers gemaakte content, is voor dit soort scansoftware onherkenbaar. Elke bewerking of wijziging van een afbeelding door AI verandert ook de hashwaarde.

“Hash-matching is de eerste verdedigingslinie”, zei Marcoux. “Met AI wordt elk beeld dat wordt gegenereerd beschouwd als een compleet nieuw beeld en heeft het een andere hashwaarde. Dit ondermijnt de effectiviteit van de bestaande frontlinie. Het zou het hashmatchingsysteem kunnen doen instorten.”


Experts op het gebied van kinderveiligheid houden rekening met een escalatie van door AI gegenereerde CSAM tot eind 2022, wat samenvalt met de release van ChatGPT door OpenAI en de introductie van generatieve AI bij het publiek. Eerder dat jaar werd de LAION-5B-database gelanceerd, een open source-catalogus met meer dan 5 miljard afbeeldingen die iedereen kan gebruiken om AI-modellen te trainen.

Afbeeldingen van eerder aan het licht gebracht seksueel kindermisbruik werden in de database opgenomen, wat betekent dat AI-modellen die op die database zijn getraind CSAM zouden kunnen produceren, ontdekten Stanford-onderzoekers eind 2023. Experts op het gebied van kinderveiligheid benadrukten dat kinderen tijdens het proces werden geschaad. Door AI gemaakte CSAM’s.

“Elke keer dat een CSAM-beeld in een AI-machine wordt ingevoerd, leert het een nieuwe vaardigheid”, zegt Korobov van het Zero Abuse Project.

Wanneer gebruikers een bekende CSAM naar hun beeldverwerkingstools uploaden, beoordeelt OpenAI dit en rapporteert het aan NCMEC, aldus een woordvoerder van het bedrijf.

“We hebben aanzienlijke inspanningen geleverd om het potentieel van onze modellen om inhoud te genereren die kinderen schaadt, te minimaliseren”, aldus de woordvoerder.

sla de nieuwsbriefpromotie over


In 2023 ontving NCMEC 36,2 miljoen meldingen van online kindermisbruik, een stijging van 12% ten opzichte van het voorgaande jaar. De meeste ontvangen tips hadden betrekking op de verspreiding van levensechte foto’s en video’s van seksueel misbruikte kinderen. Het ontving echter ook 4.700 meldingen van afbeeldingen of video’s van seksuele uitbuiting van kinderen, gemaakt door generatieve AI.

NCMEC heeft AI-bedrijven ervan beschuldigd niet actief te proberen de productie van CSAM te voorkomen of op te sporen. Vorig jaar rapporteerden slechts vijf generatieve AI-platforms aan de organisatie. Meer dan 70% van de door AI gegenereerde CSAM-rapporten was afkomstig van sociale-mediaplatforms, die werden gebruikt om het materiaal te delen, en niet van AI-bedrijven.

“Er zijn talloze sites en applicaties waartoe toegang kan worden verkregen om dit soort inhoud te creëren, inclusief open source-modellen, die CyberTipline niet behandelen en geen andere beveiligingsmaatregelen toepassen, voor zover wij weten”, zegt Fallon McNulty, directeur van NCMEC’s CyberTiplijn.

Aangezien AI roofdieren in staat stelt duizenden nieuwe CSAM-afbeeldingen te maken met weinig tijd en minimale inspanning, verwachten deskundigen op het gebied van kinderveiligheid dat hun middelen steeds meer onder druk komen te staan ​​in hun pogingen om de uitbuiting van kinderen te bestrijden. NCMEC zei dat het verwacht dat AI een toename van het aantal rapporten aan zijn CyberTipline zal veroorzaken.

Deze verwachte toename van het aantal meldingen zal van invloed zijn op de identificatie en redding van slachtoffers, waardoor een toch al overbelast en overbelast rechtshandhavingsveld wordt bedreigd, aldus deskundigen op het gebied van kinderveiligheid.

Roofdieren delen CSAM doorgaans met hun gemeenschappen op peer-to-peer-platforms, waarbij ze gecodeerde berichtentoepassingen gebruiken om detectie te voorkomen.

De stap van Meta om Facebook Messenger in december te versleutelen en de plannen om berichten op Instagram te versleutelen, leidde tot reacties van kinderveiligheidsgroepen, die vrezen dat veel van de miljoenen incidenten die jaarlijks op hun platforms plaatsvinden onopgemerkt zullen blijven.

Meta heeft het afgelopen jaar ook een groot aantal generatieve AI-functies op zijn sociale netwerken geïntroduceerd. Afbeeldingen gegenereerd door kunstmatige intelligentie zijn een van de meest populaire inhoud op sociale netwerken geworden.

In een verklaring aan de Guardian zei een woordvoerder van Meta: “We hebben gedetailleerd en robuust beleid tegen naaktheid, misbruik en uitbuiting van kinderen, inclusief materiaal over seksueel misbruik van kinderen (CSAM) en seksualisering van kinderen, evenals materiaal dat is gemaakt met behulp van GenAI. We rapporteren alle zichtbare gevallen van CSAM aan NCMEC, in overeenstemming met onze wettelijke verplichtingen.”


Experts op het gebied van kinderveiligheid zeggen dat bedrijven die AI-platforms ontwikkelen en wetgevers grotendeels verantwoordelijk moeten zijn voor het stoppen van de verspreiding van door AI gegenereerde CSAM.

“Het is absoluut noodzakelijk om tools veilig te ontwerpen voordat ze worden gelanceerd, om ervoor te zorgen dat ze niet kunnen worden gebruikt om CSAM te creëren,” zei McNulty. “Helaas, zoals we hebben gezien bij sommige open-source generatieve AI-modellen, kunnen er enorme gevolgen zijn die niet kunnen worden teruggedraaid als bedrijven de beveiliging niet by design volgen.”

Bovendien, aldus Korobov, moeten platforms die kunnen worden gebruikt om door AI gegenereerde CSAM uit te wisselen, meer middelen toewijzen aan detectie en rapportage.

“Er zullen meer menselijke moderators nodig zijn om naar afbeeldingen te kijken of naar chatrooms en andere servers te gaan waar mensen dit materiaal verhandelen en te zien wat daarbuiten is, in plaats van te vertrouwen op geautomatiseerde systemen om dat te doen”, zei ze. “Je zult het moeten zien en erkennen dat dit ook materiaal met betrekking tot seksueel kindermisbruik is; het is gewoon nieuw gemaakt.”

Ondertussen hebben grote socialemediabedrijven bezuinigd op de middelen die zijn toegewezen aan het scannen en rapporteren van kinderuitbuiting door banen te schrappen onder de kinderteams en veiligheidsmoderators.

“Als grote bedrijven niet bereid zijn om de basis te doen met CSAM-detectie, waarom zouden we dan denken dat ze al deze extra stappen zouden ondernemen in deze ongereguleerde wereld van kunstmatige intelligentie?”, zegt Sarah Gardner, uitvoerend directeur van het Heat Initiative, een Los Angeles gevestigde kinderveiligheidsgroep. “We zijn er getuige van dat puur vrijwilligheid niet werkt.”