OpenAI zegt dat Russische en Israëlische groepen hun instrumenten hebben gebruikt om desinformatie te verspreiden | Open AI

Donderdag bracht OpenAI zijn eerste rapport uit over hoe zijn kunstmatige intelligentie-instrumenten worden gebruikt voor geheime beïnvloedingsoperaties, waaruit bleek dat het bedrijf desinformatiecampagnes uit Rusland, China, Israël en Iran verstoorde.

Kwaadwillige actoren gebruikten de generatieve AI-modellen van het bedrijf om propaganda-inhoud te creëren en te publiceren op sociale-mediaplatforms, en om hun inhoud in verschillende talen te vertalen. Volgens het rapport werd geen van de campagnes populairder of bereikte een groot publiek.

Nu generatieve kunstmatige intelligentie een bloeiende industrie is geworden, bestaat er onder onderzoekers en wetgevers wijdverbreide bezorgdheid over het potentieel ervan om de kwantiteit en kwaliteit van online-desinformatie te vergroten. Bedrijven op het gebied van kunstmatige intelligentie, zoals OpenAI, dat ChatGPT maakt, hebben met gemengde resultaten geprobeerd deze zorgen weg te nemen en hun technologie te beveiligen.

Het 39 pagina’s tellende rapport van OpenAI is een van de meest gedetailleerde rapporten van een kunstmatige-intelligentiebedrijf over het gebruik van zijn software voor propaganda. OpenAI beweerde dat zijn onderzoekers accounts hebben gevonden en verboden die verband houden met vijf geheime beïnvloedingsoperaties van de afgelopen drie maanden, die afkomstig waren van een mix van overheids- en particuliere actoren.

In Rusland creëerden en verspreidden twee operaties kritische inhoud over de VS, Oekraïne en verschillende Baltische landen. Bij een van de operaties werd het OpenAI-model gebruikt om fouten in de code te debuggen en een bot te maken die op Telegram werd gepost. De Chinese invloedsoperatie genereerde tekst in het Engels, Chinees, Japans en Koreaans, die de agenten vervolgens op Twitter en Medium plaatsten.

Iraanse actoren produceerden hele artikelen waarin ze de VS en Israël aanvielen, die ze in het Engels en Frans vertaalden. Een Israëlisch politiek bedrijf genaamd Stoic beheerde een netwerk van valse sociale media-accounts die een scala aan inhoud creëerden, waaronder berichten waarin Amerikaanse studentenprotesten tegen de Israëlische oorlog in Gaza ervan werden beschuldigd antisemitisch te zijn.

Verschillende verspreiders van desinformatie die OpenAI van zijn platform heeft verbannen, zijn al bekend bij onderzoekers en autoriteiten. In maart heeft het Amerikaanse ministerie van Financiën sancties opgelegd aan twee Russen die naar verluidt achter een van de door OpenAI aan het licht gebrachte campagnes zaten, terwijl Meta dit jaar ook Stoica van zijn platform verbood wegens het schenden van zijn beleid.

Het rapport benadrukt ook dat generatieve kunstmatige intelligentie wordt opgenomen in desinformatiecampagnes als een middel om bepaalde aspecten van het genereren van inhoud te verbeteren, zoals het plaatsen van overtuigender berichten in een vreemde taal, maar dat dit niet het enige propaganda-instrument is.

“Al deze operaties maakten tot op zekere hoogte gebruik van AI, maar geen enkele maakte er uitsluitend gebruik van”, aldus het rapport. “In plaats daarvan was het door AI gegenereerde materiaal slechts een van de vele soorten inhoud die ze plaatsten, samen met meer traditionele formaten, zoals handgeschreven teksten of memes die van internet werden gekopieerd.”

Hoewel geen van de campagnes een significante impact had, laat het gebruik van de technologie zien hoe kwaadwillende actoren ontdekken dat generatieve AI hen in staat stelt de propagandaproductie te vergroten. Het schrijven, vertalen en publiceren van inhoud kan nu efficiënter worden gedaan met behulp van AI-tools, waardoor de lat voor het creëren van desinformatiecampagnes lager ligt.

Het afgelopen jaar hebben kwaadwillende actoren in landen over de hele wereld generatieve kunstmatige intelligentie gebruikt om te proberen de politiek en de publieke opinie te beïnvloeden. Deep fake audio, door AI gegenereerde afbeeldingen en op tekst gebaseerde campagnes zijn gebruikt om verkiezingscampagnes te verstoren, wat heeft geleid tot een grotere druk op bedrijven als OpenAI om het gebruik van hun tools te beperken.

OpenAI heeft verklaard dat het van plan is om periodiek soortgelijke rapporten over geheime beïnvloedingsoperaties te publiceren, en om accounts te verwijderen die zijn beleid schenden.