Meta probeert alle AI-afbeeldingen op Instagram en Facebook te markeren om misleidende inhoud te bestrijden | Doel

Meta werkt aan het detecteren en markeren van door AI gegenereerde afbeeldingen op Facebook, Instagram en Threads terwijl het bedrijf probeert ‘mensen en organisaties aan te spreken die actief proberen mensen te misleiden’.

Fotorealistische afbeeldingen gemaakt met behulp van Meta’s AI-beeldvormingstool worden al bestempeld als AI, maar de president van mondiale zaken van het bedrijf, Nick Clegg, kondigde dinsdag in een blogpost aan dat het bedrijf zal beginnen met het labelen van door AI gegenereerde afbeeldingen die zijn ontwikkeld op concurrerende diensten.

Meta AI-afbeeldingen bevatten al metadata en onzichtbare watermerken die andere organisaties kunnen vertellen dat de afbeelding door AI is ontwikkeld, en het bedrijf ontwikkelt tools om dit soort markeringen te identificeren wanneer ze worden gebruikt door andere bedrijven, zoals Google, OpenAI, Microsoft, Adobe, Midjourney en Shutterstock in hun AI-beeldgeneratoren, zei Clegg.

“Nu het onderscheid tussen menselijke en synthetische inhoud vervaagt, willen mensen weten waar de grens ligt”, zegt Clegg.

“Mensen ervaren vaak voor het eerst door AI gegenereerde inhoud en onze gebruikers hebben ons verteld dat ze de transparantie rond deze nieuwe technologie waarderen. Het is dus belangrijk dat we mensen helpen te weten wanneer de fotorealistische inhoud die ze zien, met AI is gemaakt.”

Surfende lama of AI? Afbeeldingstags voor door AI gegenereerde inhoud op Facebook.

Clegg zei dat de mogelijkheid wordt gebouwd en dat de tags de komende maanden in alle talen zullen worden geïmplementeerd.

“We hanteren deze aanpak het komende jaar, waarin een aantal belangrijke verkiezingen over de hele wereld plaatsvinden”, aldus Clegg.

Clegg merkte op dat het beperkt is tot afbeeldingen en dat de AI-tools die audio en video genereren deze tags momenteel niet bevatten, maar het bedrijf zou mensen toestaan ​​deze inhoud te ontdekken en te taggen zodra deze online is gepubliceerd.

Hij zei dat het bedrijf ook een prominenter label zou plakken op ‘digitaal gemaakte of gewijzigde’ afbeeldingen, video of audio die ‘een bijzonder hoog risico met zich meebrengen om het publiek materieel te misleiden over een materiële kwestie’.

Het bedrijf heeft ook overwogen technologie te ontwikkelen om door AI gegenereerde inhoud automatisch te detecteren, zelfs als de inhoud geen onzichtbare markeringen bevat of als deze markeringen zijn verwijderd.

“Dit werk is vooral belangrijk omdat het de komende jaren waarschijnlijk een steeds vijandiger gebied zal worden”, zei Clegg.

“Mensen en organisaties die actief mensen willen misleiden met door AI gegenereerde inhoud zullen zoeken naar manieren om de veiligheidsmaatregelen te omzeilen die zijn ingesteld om deze te detecteren. In onze sector en de samenleving in het algemeen zullen we moeten blijven zoeken naar manieren om een ​​stap voor te blijven.”

AI-deepfakes zijn al in de Amerikaanse presidentsverkiezingencyclus terechtgekomen, met robocalls voor wat wordt verondersteld een door AI gegenereerde deepfake te zijn van de stem van president Joe Biden, die kiezers ontmoedigt om de Democratische voorverkiezingen in New Hampshire bij te wonen.

Nine News in Australia kreeg vorige week ook kritiek te verduren omdat het een foto van Georgie Purcell, het Victoriaanse parlementslid voor dierenrecht, had gewijzigd om haar buik bloot te leggen en haar borsten te veranderen in een afbeelding die op het avondnieuws werd gepubliceerd. Het netwerk gaf de schuld aan ‘automatisering’ in Adobe’s Photoshop-product, dat AI-tools voor afbeeldingen bevat.