Techgiganten ontwikkelen plannen om AI-verkiezingsdeepfakes te bestrijden: NPR

Een kiezer verlaat een stembureau in het St. Anthony Community Centre in Manchester, NH, tijdens de presidentsverkiezingen van 23 januari.

Michael Dwyer/AP


Onderschrift verbergen

Schakel bijschriften in

Michael Dwyer/AP


Een kiezer verlaat een stembureau in het St. Anthony Community Centre in Manchester, NH, tijdens de presidentsverkiezingen van 23 januari.

Michael Dwyer/AP

Techgiganten als Microsoft, Meta, Google, Amazon, X, OpenAI en TikTok hebben vrijdag een overeenkomst onthuld die erop gericht is het risico te verkleinen dat kunstmatige intelligentie de verkiezingen van 2024 verstoort.

De technologie-industrie ‘Accord’ richt zich op door AI gegenereerde afbeeldingen, video’s en audio die kiezers kunnen misleiden over kandidaten, verkiezingsfunctionarissen en het stemproces. Maar het roept niet op tot een volledig verbod op dergelijke inhoud.

En hoewel de deal een blijk van eenheid is voor het platform met miljarden gecombineerde gebruikers, schetst het grotendeels initiatieven die al aan de gang zijn, zoals inspanningen om door AI gegenereerde inhoud te identificeren en te labelen.

De angst over de manier waarop AI kan worden gebruikt om kiezers te misleiden en kwaadwillig een verkeerde voorstelling te geven van degenen die zich kandidaat stellen, groeit in een jaar waarin miljoenen mensen over de hele wereld naar de stembus zullen gaan. Blijkbaar is door AI gegenereerde audio al gebruikt om zich voor te doen als president Biden, om te laten zien hoe een leidende kandidaat de Democraten ervan weerhoudt te gaan stemmen tijdens de voorverkiezingen in New Hampshire in januari en zou beweren dat er sprake was van verkiezingsfraude bij de verkiezingen in Slowakije in september.

“Het opzettelijk en niet openbaar maken van misleidende AI-verkiezingsinhoud kan het publiek misleiden op een manier die de integriteit van het verkiezingsproces in gevaar brengt”, aldus de tekst van de overeenkomst. “Wij bevestigen dat het beschermen van de electorale integriteit en het vertrouwen van het publiek een gedeelde verantwoordelijkheid is en een gemeenschappelijk goed dat partijbelangen en nationale grenzen overstijgt.”

De bedrijven maakten de deal bekend op de Veiligheidsconferentie van München, een jaarlijkse bijeenkomst van staatshoofden, inlichtingendiensten, militaire functionarissen en diplomaten die bekend staat als de ‘Davos van Defensie’.

De overeenkomst is een vrijwillige reeks beleidsmaatregelen en toezeggingen van technologiebedrijven. Dit omvat het ontwikkelen van technologieën voor het watermerken, identificeren en labelen van realistische inhoud die met AI is gegenereerd; het evalueren van modellen die ten grondslag liggen aan AI-software om de risico’s van misbruik te identificeren; en ondersteunt inspanningen om het publiek voor te lichten over AI. Het contract geeft niet aan hoe de beloften moeten worden afgedwongen.

Ondertekenaars van de overeenkomst zijn onder meer bedrijven die tools maken voor het creëren van AI-inhoud, waaronder OpenAI, Anthropic en Adobe. Het werd ook ondertekend door Eleven Labs, wiens onderzoekers op het gebied van stemkloneringstechnologie denken dat deze achter de nep-Biden-audio zat. Platformen die inhoud verspreiden, waaronder Facebook- en Instagram-eigenaren Meta, TikTok en X, het bedrijf dat voorheen bekend stond als Twitter, hebben zich ook aangemeld.

Nick Clegg, Meta’s president van mondiale zaken, zei dat het samenkomen als industrie noodzakelijk was vanwege de omvang van de dreiging die uitgaat van AI, waar bedrijven al aan werken.

“Al onze verdedigingen tegen het frauduleuze gebruik van AI tijdens verkiezingen zijn slechts zo sterk als onze collectieve inspanningen”, zei hij. “Generatieve AI-inhoud blijft niet alleen in één platformsilo. Het beweegt zich met grote snelheid van platform naar platform over het internet.”

Met een focus op transparantie, educatie en het identificeren en labelen in plaats van het verwijderen van misleidende AI-inhoud, weerspiegelt de overeenkomst de onwil van de technologie-industrie om agressiever toezicht te houden op politieke inhoud.

Critici van rechts hebben in het Congres en de rechtbanken een drukcampagne opgezet tegen het beleid van het sociale-mediaplatform en de partnerschappen met overheidsinstanties en academici, gericht op het onderdrukken van verkiezingsgerelateerde onwaarheden. Als gevolg hiervan hebben sommige technologiebedrijven deze inspanningen teruggeschroefd. Met name desinformatie, propaganda en haatzaaiende uitlatingen zijn in X allemaal toegenomen sinds het aantreden van Elon Musk, aldus de onderzoekers.

Een oud probleem is een nieuwe rimpel

Hoe ontwrichtend AI deze verkiezingscyclus zal zijn, blijft een open en onbeantwoorde vraag.

Sommige deskundigen vrezen dat de risico’s moeilijk te overschatten zijn.

“De kracht van nieuwe technologieën die door tegenstanders kunnen worden gebruikt – het zal angstaanjagend zijn”, zegt Joe Kinery, hoofdwetenschapper bij het open-source verkiezingstechnologiebedrijf Free & Fair. “Ik denk niet dat we op dit moment sciencefiction kunnen schrijven die in de buurt komt van de dingen die we volgend jaar gaan zien.”

Maar verkiezingsfunctionarissen en de federale regering beweren dat de invloed gematigder zal zijn.

De Cybersecurity and Infrastructure Security Agency, de afdeling van het Department of Homeland Security die verantwoordelijk is voor verkiezingsveiligheid, zei in een recent rapport dat generatieve AI-capaciteiten “waarschijnlijk geen nieuwe risico’s zullen introduceren, maar ze kunnen de bestaande risico’s voor de verkiezingsinfrastructuur” van stemmen vergroten. processen en cyberveiligheidsbedreigingen.

Terwijl AI een groot deel van het gesprek op een conferentie van staatssecretarissen in Washington eerder deze maand domineerde, merkten verkiezingsfunctionarissen in D.C. al snel op dat ze al jaren strijden tegen desinformatie over hun processen, dus in veel opzichten zijn de recente ontwikkelingen op het gebied van AI slechts een evolutie. Iets waar ze al bekend mee zijn.

“De AI-versterker moet worden blootgesteld aan het feit dat het niet een groot mystiek, wereldveranderend, rampveroorzakend gedrocht is”, zei Adrian Fontes, de Democratische minister van Buitenlandse Zaken van Arizona. “Het is een tool om slecht nieuws te verspreiden, maar het is ook een tool om groot talent te ontdekken.”

Terwijl sommige verkiezingsexperts vrezen dat de risico’s van AI moeilijk te overschatten zijn, zeggen anderen, zoals Adrian Fontes, de minister van Buitenlandse Zaken van Arizona, dat het ‘niet het rampzalige gedrocht is waar sommige mensen het van maken’.

Ross d. Franklin/AP


Onderschrift verbergen

Schakel bijschriften in

Ross d. Franklin/AP

Een bijzondere zorg die vaak naar voren komt is hoe moeilijk het is om het publiek aan te moedigen sceptisch te zijn over wat ze online zien, zonder dit scepticisme om te zetten in een wijdverbreid wantrouwen en vervreemding van alle informatie.

Ambtenaren verwachten bijvoorbeeld dat kandidaten steeds vaker zullen beweren dat waarheidsgetrouwe informatie door AI wordt gegenereerd, een fenomeen dat bekend staat als het leugenaarsdividend.

“Het zal gemakkelijk zijn om te beweren dat iets nep is”, zei CISA-verkiezingsveiligheidsanalist Adriana Stephan tijdens een panel over AI op de conferentie.

Ook toezichthouders houden de bewaker in de gaten

Veel van de ondertekenaars van de nieuwe technische overeenkomst hebben al inspanningen aangekondigd die onder de gebieden vallen die onder de overeenkomst vallen Meta, TikTok en Google eisen dat gebruikers bekendmaken wanneer ze realistische, door AI gegenereerde inhoud plaatsen. TikTok heeft AI-namaakproducten van publieke figuren verboden wanneer deze worden gebruikt voor politieke of commerciële steunbetuigingen. OpenAI staat niet toe dat zijn tools worden gebruikt voor politieke campagnes, chatbots maken om zich voor te doen als kandidaten of mensen ontmoedigen om te stemmen.

Vorige week zei Meta dat het de komende maanden zou beginnen met het labelen van afbeeldingen die zijn gemaakt met toonaangevende AI-tools, met behulp van onzichtbare markeringen die de industrie aan het ontwikkelen is. Meta wil ook dat adverteerders het gebruik van AI bekendmaken in advertenties over verkiezingen, politiek en sociale kwesties, en verbiedt politieke adverteerders de eigen generatieve AI-tools van het bedrijf te gebruiken om advertenties te maken.

Pogingen om door AI gegenereerde audio en video te identificeren en te labelen zijn nieuwer, ook al zijn ze al gebruikt om kiezers te misleiden, zoals in New Hampshire.

Maar nu technologiebedrijven reageren op de druk over de manier waarop hun producten kunnen worden misbruikt, gaan ze ook vooruit met meer geavanceerde technologie. Donderdag lanceerde OpenAI een tool die met eenvoudige tekstprompts realistische video’s van maximaal een minuut maakt.

De stap van bedrijven om vrijwillig het gebruik van AI aan banden te leggen komt op een moment dat toezichthouders worstelen met de vraag hoe ze de nieuwe technologie moeten afbakenen.

Europese wetgevers zullen in april de Artificial Intelligence Act goedkeuren, een uitgebreide reeks regels die wordt aangekondigd als ‘s werelds eerste alomvattende AI-wet.

In de VS heeft een reeks voorgestelde federale wetten die de technologie reguleren, waaronder het verbieden van deepfake-fraude bij verkiezingen en het creëren van een nieuw agentschap om toezicht te houden op AI, niet veel grip gekregen. Volgens de progressieve belangenorganisatie Public Citizen zijn staten snel in beweging, waarbij wetgevers in ongeveer 32 staten sinds eerder dit jaar wetsvoorstellen indienen om deepfakes bij verkiezingen te reguleren.

Critici in Silicon Valley zeggen dat hoewel AI de bestaande dreigingen bij verkiezingen verergert, de risico’s van de technologie breder zijn dan de nieuwe instrumenten van bedrijven.

“De belangrijkste technologiegerelateerde bedreigingen bij de verkiezingen van dit jaar komen echter niet voort uit de creatie Inhoud met AI maar uit meer bekende bronnen: levering valse, haatzaaiende en gewelddadige inhoud via sociale-mediaplatforms”, schreven onderzoekers van het Stern Center for Business and Human Rights van de New York University deze week in een rapport waarin zij kritiek hadden op de wijzigingen in de inhoudsmoderatie die bij Meta, Google en X waren doorgevoerd.