Mijn deepfake laat zien hoe waardevol onze data zijn in het tijdperk van AI

Synthesia is erin geslaagd om AI-avatars te creëren die extreem menselijk zijn, na slechts een jaar sleutelen aan de nieuwste generatie generatieve AI. Het is zowel spannend als eng om na te denken over waar deze technologie naartoe gaat. Het zal binnenkort heel moeilijk zijn om te zeggen wat echt is en wat niet, en dit is een bijzonder acute bedreiging gezien het recordaantal verkiezingen dat dit jaar over de hele wereld plaatsvindt.

Wij zijn niet klaar voor wat gaat komen. Als mensen te sceptisch worden over de inhoud die ze zien, kunnen ze helemaal niets meer geloven, waardoor slechte actoren dit vertrouwensvacuüm kunnen uitbuiten en kunnen liegen over de authenticiteit van de daadwerkelijke inhoud. De onderzoekers noemden dit het ‘valse dividend’. Ze waarschuwen ervoor dat politici bijvoorbeeld zouden kunnen beweren dat werkelijk belastende informatie nep is of door kunstmatige intelligentie is gecreëerd.

Ik heb zojuist een verhaal gepubliceerd over mijn diepe nep-creatieve ervaring en grote vragen over een wereld waarin we niet langer kunnen zeggen wat echt is. Lees hier.

Maar er is nog een grote vraag: wat gebeurt er met onze gegevens als we deze aan AI-bedrijven overdragen? Synthesia zegt dat het de gegevens die het verzamelt van actoren en klanten niet verkoopt, hoewel het een deel ervan wel vrijgeeft voor academisch onderzoek. Drie jaar lang gebruikt het bedrijf avatars, waarna aan acteurs wordt gevraagd of ze hun contract willen verlengen. Als dat zo is, komen ze naar de studio om een ​​nieuwe avatar te maken. Als dit niet het geval is, verwijdert het bedrijf hun gegevens.

Maar andere bedrijven zijn niet zo transparant over hun bedoelingen. Zoals mijn collega Eileen Guo vorig jaar meldde, verlenen bedrijven als Meta de gegevens van actoren – inclusief hun gezichten en uitdrukkingen – licenties op een manier die bedrijven in staat stelt ermee te doen wat ze willen. De acteurs worden een beetje vooraf betaald, maar hun gelijkenis kan vervolgens zonder hun medeweten worden gebruikt om het AI-model voor altijd te trainen.

Zelfs als datacontracten transparant zijn, zijn ze niet van toepassing als je sterft, zegt Carl Öhman, assistent-professor aan de Universiteit van Uppsala, die online gegevens heeft bestudeerd die zijn achtergelaten door overleden mensen en de auteur is van een nieuw boek: Het hiernamaals van data. De gegevens die we in sociale-mediaplatforms of AI-modellen invoeren, kunnen uiteindelijk bedrijven ten goede komen en voortleven lang nadat we er niet meer zijn.

“Er wordt voorspeld dat Facebook de komende decennia enkele miljarden dode profielen zal hosten”, zegt Öhman. “Ze zijn niet echt commercieel levensvatbaar. “Dode mensen klikken niet op advertenties, maar nemen nog steeds ruimte in beslag op de server”, voegt hij eraan toe. Deze gegevens kunnen worden gebruikt om nieuwe AI-modellen te trainen of om conclusies te trekken over de nakomelingen van die overleden gebruikers. Het hele data- en toestemmingsmodel met AI gaat ervan uit dat zowel de betrokkene als het bedrijf voor altijd zullen leven, zegt Öhman.

Onze data zijn een hot commodity. AI-taalmodellen worden getraind door zonder onderscheid het internet af te schrapen, en dat geldt ook voor onze persoonlijke gegevens. Een paar jaar geleden heb ik getest of GPT-3, de voorloper van het taalmodel dat ChatGPT aandrijft, iets bij me had. Het was moeilijk, maar ik ontdekte dat ik persoonlijke informatie kon vinden over de hoofdredacteur van de MIT Technology Review, Mat Honan.