Waarom de watermerkplannen van Big Tech worden verwelkomd Goed nieuws

Op 6 februari zei Meta dat het door AI gegenereerde afbeeldingen op Facebook, Instagram en Threads zou taggen. Wanneer iemand de AI-tool van Meta gebruikt om afbeeldingen te maken, voegt het bedrijf zichtbare markeringen aan de afbeelding toe, evenals onzichtbare watermerken en metagegevens aan het afbeeldingsbestand. Het bedrijf zegt dat zijn normen in overeenstemming zijn met de best practices van het Partnership on AI, een non-profit AI-onderzoeksorganisatie.

Big Tech zet ook zijn schouders onder een veelbelovende technische standaard die een ‘voedingslabel’ aan afbeeldingen, video’s en audio zou kunnen toevoegen. Het heet C2PA en is een open-source internetprotocol dat afhankelijk is van cryptografie om details over de oorsprong van een stukje inhoud te coderen, of wat technologen ‘Provenciële’ informatie noemen. C2PA-ontwikkelaars vergelijken het protocol vaak met een voedingsetiket, maar dan wel één die vertelt waar de inhoud vandaan komt en wie (of wat) deze heeft gemaakt. Lees er hier meer over.

Op 8 februari kondigde Google aan dat het zich bij andere technologiegiganten zoals Microsoft en Adobe zou voegen in de C2PA-stuurgroep en dat het zijn SynthID-watermerk zou opnemen in alle door AI gegenereerde afbeeldingen in zijn nieuwe Gemini-tools. Meta zegt ook deel te nemen aan C2PA. Het hebben van een industriebrede standaard maakt het voor bedrijven gemakkelijker om door AI gegenereerde inhoud te ontdekken, ongeacht op welk systeem deze is gemaakt.

OpenAI heeft vorige week ook nieuwe maatregelen voor de herkomst van inhoud aangekondigd. Het zegt dat het watermerken zal toevoegen aan de metadata van afbeeldingen die zijn gegenereerd door ChatGPT en DALL-E 3, de kunstmatige intelligentie voor het maken van afbeeldingen. OpenAI zegt dat het nu een zichtbare tag op afbeeldingen zal plaatsen om aan te geven dat ze door AI zijn gemaakt.

Deze methoden zijn een veelbelovend begin, maar ze zijn niet waterdicht. Metadata-watermerken kunnen eenvoudig worden omzeild door een screenshot van afbeeldingen te maken en deze eenvoudig te gebruiken, terwijl visuele tags kunnen worden bijgesneden of bewerkt. Er is misschien meer hoop voor onzichtbare watermerken zoals Google’s SynthID, die op subtiele wijze de pixels van een afbeelding verandert, zodat computerprogramma’s het watermerk kunnen detecteren, maar het menselijk oog niet. Ze zijn moeilijker aan te raken. Bovendien zijn er geen betrouwbare manieren om door AI gegenereerde video, audio of zelfs tekst te taggen en te detecteren.

Maar er zit nog steeds waarde in het creëren van deze herkomsthulpmiddelen. Zoals Henry Ajder, een expert op het gebied van generatieve kunstmatige intelligentie, me een paar weken geleden vertelde toen ik hem interviewde over hoe je deepfake-porno kunt voorkomen, het gaat erom een ​​‘perverse klantreis’ te creëren. Met andere woorden: voeg barrières en wrijving toe aan de deepfake-pijplijn om het creëren en delen van schadelijke inhoud zoveel mogelijk te vertragen. Een vastberaden persoon zal deze bescherming waarschijnlijk nog steeds terzijde kunnen schuiven, maar alle kleine beetjes helpen.

Er zijn ook veel niet-technische oplossingen die technologiebedrijven kunnen implementeren om problemen zoals deepfake-pornografie te voorkomen. Grote aanbieders van clouddiensten en appstores, zoals Google, Amazon, Microsoft en Apple, zouden diensten kunnen verbieden die gebruikt kunnen worden om zonder toestemming deep acts te creëren. Watermerken moeten worden opgenomen in alle door AI gegenereerde inhoud, zelfs van kleinere startups die de technologie ontwikkelen.

Wat mij hoop geeft is dat we naast deze vrijwillige maatregelen ook bindende regelgeving beginnen te zien, zoals de EU AI-wet en de Digitale Dienstenwet, die technologiebedrijven verplichten door AI gegenereerde inhoud te detecteren en schadelijke inhoud sneller te verwijderen. Er is ook hernieuwde belangstelling van Amerikaanse wetgevers voor het aannemen van enkele bindende regels inzake deepfakes. En nadat door AI gegenereerde geautomatiseerde oproepen aan president Biden de kiezers vertelden niet te stemmen, kondigde de Amerikaanse Federal Communications Commission vorige week aan dat zij het gebruik van AI bij deze oproepen verbood.