Een Amerikaanse man gebruikte kunstmatige intelligentie om 13.000 afbeeldingen van seksueel kindermisbruik te maken, aldus de FBI | Kunstmatige intelligentie (AI)

De FBI heeft een Amerikaanse man beschuldigd van het maken van meer dan 10.000 seksueel expliciete en aanstootgevende afbeeldingen van kinderen, die hij zou hebben gemaakt met behulp van een populair hulpmiddel voor kunstmatige intelligentie. De autoriteiten beschuldigden ook een man, de 42-jarige Steven Anderego, ervan via Instagram door AI gegenereerde pornografische afbeeldingen naar een 15-jarige jongen te sturen.

Anderegg maakte ongeveer 13.000 ‘hyperrealistische afbeeldingen van naakte en halfgeklede puberende kinderen’, zeiden aanklagers in een maandag vrijgegeven aanklacht, vaak afbeeldingen waarop kinderen hun geslachtsdelen aanraken of seksueel worden misbruikt door mannelijke volwassenen. Bewijsmateriaal uit de laptop van de man uit Wisconsin zou hebben aangetoond dat hij het populaire Stable Diffusion AI-model gebruikte, dat tekstbeschrijvingen omzet in afbeeldingen.

De aanklacht van Anderegg komt nadat het National Center for Missing and Exploited Children (NCMEC) vorig jaar twee rapporten ontving waarin zijn Instagram-account werd gemarkeerd, wat wetshandhavingsfunctionarissen ertoe aanzette zijn activiteiten op het sociale netwerk te volgen, informatie van Instagram te verkrijgen en uiteindelijk een huiszoekingsbevel te krijgen. . De autoriteiten namen zijn laptop in beslag en troffen duizenden kunstmatige intelligentie-generatieve beelden aan, volgens de aanklacht tegen hem, evenals een geschiedenis van het gebruik van ‘uiterst specifieke en expliciete aansporingen’ om aanstootgevend materiaal te creëren.

Anderegg wordt geconfronteerd met vier aanklachten wegens het maken, verspreiden en bezitten van materiaal over seksueel misbruik van kinderen en het verzenden van expliciet materiaal naar een kind onder de 16 jaar. Als hij wordt veroordeeld, riskeert hij een maximale gevangenisstraf van ongeveer 70 jaar, en 404 Media meldt dat de zaak een van de eerste keren is dat de FBI iemand heeft aangeklaagd voor het genereren van AI-materiaal om kinderen seksueel te misbruiken. Vorige maand werd een man in Florida gearresteerd omdat hij naar verluidt foto’s had gemaakt van het kind van zijn buurman en kunstmatige intelligentie had gebruikt om met de foto seksueel expliciete afbeeldingen te maken.

Voorstanders van kinderveiligheid en onderzoekers op het gebied van kunstmatige intelligentie waarschuwen al lang dat het kwaadwillige gebruik van generatieve kunstmatige intelligentie zou kunnen leiden tot een toename van materiaal over seksueel kindermisbruik. Het aantal meldingen van online kindermisbruik aan het NCMEC zal in 2023 naar verwachting met ongeveer 12% stijgen in vergelijking met het voorgaande jaar, deels als gevolg van een toename van kunstmatige-intelligentiemateriaal, waardoor de advieslijn van de organisatie voor het signaleren van potentieel seksueel misbruikmateriaal (CSAM) dreigt te worden overtroffen. .

“NCMEC maakt zich grote zorgen over deze snelgroeiende trend, omdat slechte acteurs kunstmatige intelligentie kunnen gebruiken om diep nagemaakte seksueel expliciete afbeeldingen of video’s te maken op basis van een foto van een echt kind, of om CSAM te genereren waarin computergegenereerde kinderen worden afgebeeld die betrokken zijn bij seksueel expliciete handelingen.” aldus het NCMEC-rapport.

De opkomst van generatieve kunstmatige intelligentie heeft geleid tot de wijdverbreide creatie van pornografie zonder wederzijdse toestemming, gericht op iedereen, van beroemdheden uit de A-lijst tot de gemiddelde particuliere burger. Door AI gegenereerde afbeeldingen van minderjarigen circuleren ook op scholen, wat in één geval heeft geleid tot de arrestatie van twee middelbare scholieren uit Florida die naaktfoto’s van hun klasgenoten maakten. Verschillende staten hebben wetten aangenomen tegen het genereren van expliciete afbeeldingen zonder toestemming, terwijl het ministerie van Justitie heeft gezegd dat het maken van seksuele AI-afbeeldingen van kinderen illegaal is.

“Het ministerie van Justitie zal degenen die materiaal over seksueel misbruik van kinderen produceren en verspreiden – of CSAM – agressief vervolgen, ongeacht hoe dat materiaal tot stand is gekomen”, zei plaatsvervangend procureur-generaal Lisa Monaco in een verklaring na de arrestaties. “Simpel gezegd: CSAM gegenereerd door AI is nog steeds CSAM, en we zullen degenen die AI exploiteren ter verantwoording roepen om obscene, aanstootgevende en steeds fotorealistischere beelden van kinderen te creëren.”

sla de nieuwsbriefpromotie over

Stable Diffusion, een open-source model voor kunstmatige intelligentie, is eerder gebruikt om seksueel beledigende beelden te genereren en is door gebruikers aangepast om expliciet materiaal te produceren. Uit een rapport van vorig jaar van de Stanford Internet Observatory bleek ook dat er materiaal over seksueel misbruik van kinderen in de trainingsgegevens zat. Stability AI, die Stable Diffusion creëerde, zei dat het het gebruik van zijn model om illegale inhoud te creëren verbiedt. Het bedrijf reageerde niet onmiddellijk op een verzoek om commentaar.

  • In de VS kunt u de kindermisbruikhotline bellen of sms’en op 800-422-4453 of hun website bezoeken voor meer informatie en om kindermisbruik te melden of DM voor hulp. Voor volwassen overlevenden van kindermisbruik is er hulp beschikbaar op ascasupport.org. In Groot-Brittannië biedt de NSPCC ondersteuning voor kinderen op 0800 1111 en volwassenen die bezorgd zijn over een kind op 0808 800 5000. De National Association for Abuse as a Child (Napac) biedt ondersteuning voor volwassen overlevenden op 0808 801 0331. In Australië kunnen kinderen, jongvolwassenen, ouders en leerkrachten kunnen contact opnemen met de Kids Helpline op 1800 55 1800, of Bravehearts op 1800 272 831, en volwassen overlevenden kunnen contact opnemen met de Blue Knot Foundation op 1300 657 380. Andere bronnen van hulp zijn te vinden op Child Helplines International