Hier is het grote plan van OpenAI om desinformatie over verkiezingen te bestrijden

Gisteren presenteerde TikTok me wat een nep leek van Timothee Chalamet die op de schoot van Leonardo Dicaprio zat en ja, ik dacht meteen “als deze stomme video zo goed is, stel je dan eens voor hoe slecht de verkeerde informatie over de verkiezingen zal zijn”. OpenAI moet over hetzelfde hebben nagedacht en zijn beleid vandaag hebben bijgewerkt om het probleem aan te pakken.

De De Wall Street Journal merkte een nieuwe beleidswijziging op die voor het eerst werd gerapporteerd op de OpenAI-blog. Het is ChatGPT, Dall-e en andere gebruikers en producenten van OpenAI-tools nu verboden OpenAI-tools te gebruiken om zich voor te doen als kandidaten of lokale overheden, en gebruikers kunnen OpenAI-tools niet gebruiken voor campagnes of lobbyen. Gebruikers mogen ook geen OpenAI-tools gebruiken om stemmen te ontmoedigen of het stemproces verkeerd voor te stellen.

Een digitaal identificatiesysteem zou afbeeldingen coderen met hun herkomst, waardoor het in feite veel gemakkelijker wordt om een ​​kunstmatig gegenereerd beeld te identificeren zonder te hoeven zoeken naar vreemde handen of extreem ongebruikelijke vormen.

De tools van OpenAI zullen ook stemvragen uit de Verenigde Staten gaan doorsturen naar CanIVote.org, dat doorgaans een van de beste online autoriteiten is over waar en hoe te stemmen in de VS.

Maar al deze tools bevinden zich momenteel nog in het uitrolproces en zijn sterk afhankelijk van gebruikers die slechte actoren melden. Gezien het feit dat AI zelf een snel veranderend instrument is dat ons regelmatig verrast met prachtige poëzie en regelrechte leugens, is het onduidelijk hoe goed dit zal werken in de strijd tegen desinformatie in het verkiezingsseizoen. Voorlopig kun je nog steeds het beste mediageletterdheid omarmen. Dat betekent dat je elk nieuws of elke foto die te mooi lijkt om waar te zijn in twijfel trekt, en op zijn minst een snelle Google-zoekopdracht als je ChatGPT iets wilds oplevert.