Het doelwit zal door AI gegenereerde vervalsingen kraken, maar veel daarvan onopgemerkt laten

Meta heeft, net als andere toonaangevende technologiebedrijven, het afgelopen jaar beloofd de inzet van generatieve kunstmatige intelligentie te versnellen. Vandaag erkende hij dat hij ook moet reageren op de gevaren van technologie, door een uitgebreid beleid aan te kondigen waarbij door AI gegenereerde afbeeldingen die op Facebook, Instagram en Threads zijn geplaatst, worden voorzien van waarschuwingslabels om mensen te informeren over hun kunstmatige oorsprong.

Het is echter onwaarschijnlijk dat veel van de synthetische media die op metaplatforms zullen verschijnen onder het nieuwe beleid zullen vallen, waardoor er veel mazen in de wet blijven waar kwaadwillende actoren doorheen kunnen glippen. “Het is een stap in de goede richting, maar met uitdagingen”, zegt Sam Gregory, programmadirecteur van de non-profitorganisatie Witness, die mensen helpt technologie te gebruiken om de mensenrechten te ondersteunen.

Meta bestempelt door AI gegenereerde afbeeldingen die zijn gemaakt met behulp van zijn eigen generatieve AI-tools al als ‘Imagined with AI’, deels door te zoeken naar een digitaal ‘watermerk’ dat zijn algoritmen in hun output insluiten. Nu zegt Meta dat het de komende maanden ook AI-afbeeldingen zal watermerken die zijn gemaakt met tools van andere bedrijven die watermerken in hun technologie insluiten.

Dit beleid is bedoeld om het risico te verminderen dat valse of verkeerde informatie wordt verspreid via door AI gegenereerde afbeeldingen die als foto’s worden doorgegeven. Maar hoewel Meta zei dat het werkt aan de ondersteuning van data-ontdekkingstechnologie in ontwikkeling bij Google, OpenAI, Microsoft, Adobe, Midjourney en Shutterstock, wordt de technologie nog niet op grote schaal ingezet. Er zijn ook veel tools voor het genereren van AI-afbeeldingen beschikbaar die hun output niet van een watermerk voorzien, en de technologie wordt steeds gemakkelijker toegankelijk en aanpasbaar. “De enige manier waarop een systeem als dit effectief zal zijn, is als er een breed scala aan generatieve tools en platforms aan meedoen”, zegt Gregory.

Ook al bestaat er brede steun voor watermerken, het is onduidelijk hoe robuust de bescherming die het biedt zal zijn. Er bestaat geen universeel toegepaste standaard, maar de Content Provenance and Authenticity Coalition (C2PA), een initiatief opgericht door Adobe, heeft bedrijven geholpen hun werk op het gebied van het concept te harmoniseren. Maar de tot nu toe ontwikkelde technologie is niet veilig. In een vorig jaar gepubliceerd onderzoek ontdekten onderzoekers dat ze gemakkelijk watermerken konden breken, of ze konden toevoegen aan afbeeldingen die niet door AI waren gegenereerd om ze te laten lijken.

Schadelijke maas in de wet

Hany Farid, een professor aan de UC Berkeley School of Information die het C2PA-initiatief adviseerde, zegt dat iedereen die geïnteresseerd is in het kwaadwillig gebruiken van generatieve AI zich waarschijnlijk zal wenden tot tools die hun output niet van een watermerk voorzien of de aard ervan verraden. De makers van een nep-robocall, waarbij de stem van president Joe Biden vorige maand werd gebruikt om enkele kiezers in New Hampshire aan te vallen, hebben bijvoorbeeld geen enkele openbaarmaking van de herkomst ervan toegevoegd.

En hij vindt dat bedrijven erop voorbereid moeten zijn dat slechte actoren zich kunnen richten op welke methode ze ook proberen te gebruiken om de oorsprong van inhoud te identificeren. Farid vermoedt dat meerdere vormen van identificatie samen kunnen worden gebruikt om door AI gegenereerde afbeeldingen robuust te identificeren, bijvoorbeeld door watermerken te combineren met de op hash gebaseerde technologie die wordt gebruikt om volglijsten voor materiaal met seksueel misbruik van kinderen te creëren. En watermerken zijn een minder ontwikkeld concept voor andere door AI gegenereerde media dan afbeeldingen, zoals audio en video.

“Hoewel bedrijven signalen beginnen op te nemen in hun beeldgeneratoren, zijn ze nog niet begonnen deze op te nemen in AI-tools die in dezelfde mate audio en video genereren, dus we kunnen die signalen nog niet detecteren en deze inhoud van andere bedrijven markeren ”, geeft hij toe. Meta-woordvoerder Kevin McAlister. “Terwijl de industrie aan deze mogelijkheid werkt, voegen we een functie toe waarmee mensen kunnen detecteren wanneer ze door AI gegenereerde video of audio delen, zodat we er een tag aan kunnen toevoegen.”

Het nieuwe beleid van Meta kan ertoe bijdragen dat er meer nep-inhoud wordt onderschept, maar niet alle gemanipuleerde media worden gegenereerd door kunstmatige intelligentie. De uitspraak, die maandag werd vrijgegeven door Meta’s toezichthoudende raad van onafhankelijke experts, die enkele oproepen tot gematigdheid overweegt, bevestigde het besluit van het bedrijf om een ​​video van president Joe Biden zo te laten bewerken dat het lijkt alsof hij op ongepaste wijze de borsten van zijn kleindochter aanraakt. Het bestuur zei echter dat hoewel de video, die niet door AI is gegenereerd, het huidige beleid van Meta niet schendt, het de regels voor “gemanipuleerde media” moet herzien en uitbreiden om meer te omvatten dan alleen door AI gegenereerde inhoud.

McAlister, de woordvoerder van de Met, zegt dat het bedrijf “de richtlijnen van de Oversight Board aan het herzien is en binnen 60 dagen publiekelijk zal reageren op hun aanbevelingen, zoals vereist door de wet.” Farid zegt dat de maas in het beleid van Meta en de technische focus op alleen door AI gegenereerde afbeeldingen met een watermerk erop wijzen dat het AI-generatieplan van het bedrijf onvolledig is.