Wat Amerikaanse leden denken over het reguleren van kunstmatige intelligentie

Met de snelle verspreiding van AI-systemen roepen publieke beleidsmakers en leiders uit de industrie op tot duidelijkere richtlijnen voor het besturen van de technologie. De meeste Amerikaanse IEEE-leden zijn van mening dat de huidige regelgevingsaanpak voor het beheer van kunstmatige-intelligentiesystemen (AI) ontoereikend is. Ze zeggen ook dat het prioriteren van het bestuur van kunstmatige intelligentie een kwestie van openbaar beleid moet zijn, net zoals gezondheidszorg, onderwijs, immigratie en het milieu. Dat blijkt uit onderzoek uitgevoerd door de IEEE voor het IEEE-USA AI Policy Committee.

We fungeren als voorzitter van de AI Policy Committee en weten dat IEEE-leden belangrijke, onschatbare bronnen zijn voor geïnformeerd inzicht in de technologie. Om ons beleidsbeïnvloedingswerk in Washington, DC te sturen, en om de meningen over het bestuur van AI-systemen in de VS beter te begrijpen, heeft de IEEE een willekeurige steekproef van 9.000 actieve IEEE-USA-leden ondervraagd, plus 888 actieve leden die werken aan AI en neurale netwerken.

Het onderzoek heeft de term bewust niet gedefinieerd AI. In plaats daarvan vroeg hij de respondenten om bij hun antwoorden hun eigen interpretatie van de technologie te gebruiken. Uit de resultaten bleek dat er zelfs onder IEEE-leden geen duidelijke consensus bestaat over de definitie AI. Er bestaat aanzienlijke variatie in de manier waarop leden over AI-systemen denken, en dit gebrek aan convergentie heeft gevolgen voor het overheidsbeleid.

In het algemeen werd de leden gevraagd naar hun mening over hoe ze het gebruik van algoritmen bij de daaruit voortvloeiende besluitvorming en gegevensprivacy kunnen beheren, en of de Amerikaanse overheid haar personeelscapaciteit en expertise op het gebied van AI moet vergroten.

De stand van zaken op het gebied van het beheer van kunstmatige intelligentie

IEEE-USA pleit al jaren voor sterk bestuur om de impact van kunstmatige intelligentie op de samenleving te beheersen. Het is duidelijk dat Amerikaanse beleidsmakers worstelen met het reguleren van de gegevens die kunstmatige-intelligentiesystemen aandrijven. Bestaande federale wetten beschermen bepaalde soorten gezondheids- en financiële gegevens, maar het Congres moet nog wetgeving aannemen om een ​​nationale standaard voor gegevensprivacy te implementeren, ondanks talloze pogingen daartoe. Gegevensbescherming voor Amerikanen is fragmentarisch, en de naleving van complexe federale en staatswetten op het gebied van gegevensprivacy kan kostbaar zijn voor de industrie.

Een aantal Amerikaanse beleidsmakers heeft betoogd dat AI-governance niet mogelijk is zonder een nationale dataprivacywet die normen en technische vangrails biedt rond het verzamelen en gebruiken van data, vooral op de markt van commercieel beschikbare informatie. Gegevens zijn een cruciale bron voor grote taalmodellen van derden, die deze gebruiken om AI-tools te trainen en inhoud te genereren. Zoals de Amerikaanse overheid heeft erkend, biedt de commercieel verkrijgbare informatiemarkt elke koper de mogelijkheid om hordes gegevens over individuen en groepen te verkrijgen, inclusief gegevens die anderszins door de wet worden beschermd. Deze kwestie roept aanzienlijke zorgen op het gebied van privacy en burgerlijke vrijheden op.

Het blijkt dat de regulering van de gegevensprivacy een gebied is waarop IEEE-leden sterke en duidelijke standpunten innemen.

Afhaalonderzoek

De meerderheid van de respondenten – ongeveer 70 procent – ​​zei dat de huidige regelgevingsaanpak ontoereikend is. Individuele antwoorden vertellen ons meer. Om context te bieden, hebben we de resultaten onderverdeeld in vier discussiegebieden: het beheer van het overheidsbeleid rond kunstmatige intelligentie; risico en aansprakelijkheid; vertrouwen; en vergelijkende perspectieven.

AI beheren als openbaar beleid

Hoewel er verschillende meningen bestaan ​​over aspecten van AI-governance, valt de consensus op over het reguleren van AI in bepaalde gevallen. Ruim 93 procent van de respondenten is voorstander van de bescherming van de privacy van individuele gegevens en is voorstander van regelgeving om door AI gegenereerde desinformatie aan te pakken.

Ongeveer 84 procent steunt de risicobeoordeling voor AI-producten met een gemiddeld en hoog risico. Tachtig procent riep op tot eisen inzake transparantie of uitlegbaarheid van AI-systemen, en 78 procent riep op tot beperkingen op autonome wapensystemen. Ruim 72 procent van de leden ondersteunt beleid dat het gebruik van gezichtsherkenning in bepaalde contexten beperkt of reguleert, en bijna 68 procent steunt beleid dat het gebruik van algoritmen bij daaruit voortvloeiende beslissingen reguleert.

Er was een sterke overeenstemming onder de respondenten om prioriteit te geven aan het beheer van kunstmatige intelligentie als een kwestie van openbaar beleid. Twee derde vindt dat technologie minstens evenveel prioriteit moet krijgen als andere terreinen die onder de verantwoordelijkheid van de overheid vallen, zoals gezondheidszorg, onderwijs, immigratie en het milieu.

Tachtig procent steunt de ontwikkeling en het gebruik van kunstmatige intelligentie, en ruim 85 procent zegt dat dit zorgvuldig moet worden beheerd, maar de respondenten zijn het er niet over eens hoe en wie met dergelijk beheer moet omgaan. Hoewel iets meer dan de helft van de respondenten zegt dat de overheid kunstmatige intelligentie moet reguleren, moeten deze gegevens worden vergeleken met de duidelijke steun van de meerderheid voor overheidsregulering op bepaalde gebieden of gebruiksscenario’s.

Slechts een zeer klein percentage van de niet-AI-computerwetenschappers en software-ingenieurs was van mening dat particuliere bedrijven AI zelf moeten reguleren met minimaal overheidstoezicht. Daarentegen geeft bijna de helft van de AI-professionals de voorkeur aan overheidstoezicht.

Ruim driekwart van de IEEE-leden steunt het idee dat allerlei bestuursorganen meer moeten doen om de impact van AI te beheersen.

Risico en verantwoordelijkheid

Er zijn een aantal enquêtevragen gesteld over de risicoperceptie van kunstmatige intelligentie. Bijna 83 procent van de leden zegt dat het publiek niet voldoende geïnformeerd is over AI. Meer dan de helft is het erover eens dat de voordelen van AI groter zijn dan de risico’s.

In termen van aansprakelijkheid en verantwoordelijkheid voor AI-systemen zei iets meer dan de helft dat ontwikkelaars de primaire verantwoordelijkheid moeten dragen om ervoor te zorgen dat systemen veilig en effectief zijn. Ongeveer een derde vindt dat de regering verantwoordelijk moet worden gehouden.

Vertrouwde organisaties

Respondenten rangschikten academische instellingen, non-profitorganisaties en kleine en middelgrote technologiebedrijven als de meest vertrouwde entiteiten voor verantwoord ontwerp, ontwikkeling en implementatie. De drie minst vertrouwde facties zijn grote technologiebedrijven, internationale organisaties en overheden.

De entiteiten die het meest vertrouwen in het exploiteren of beheren van AI zijn verantwoordelijke academische instellingen en onafhankelijke externe instellingen. Grote technologiebedrijven en internationale organisaties worden het minst vertrouwd.

Vergelijkende perspectieven

De leden toonden een sterke voorkeur voor het reguleren van AI om sociale en ethische risico’s te beperken, waarbij 80 procent van de niet-AI-wetenschappers en ingenieurs en 72 procent van de AI-werknemers deze mening steunden.

Bijna 30 procent van de AI-professionals geeft aan dat regelgeving innovatie zou kunnen belemmeren, vergeleken met ongeveer 19 procent van hun niet-AI-collega’s. Meerderheden in alle groepen zijn het erover eens dat het van cruciaal belang is om te beginnen met het reguleren van AI in plaats van te wachten, waarbij 70 procent van de niet-AI-professionals en 62 procent van de AI-werknemers onmiddellijke regulering ondersteunen.

Een aanzienlijke meerderheid van de respondenten erkende de sociale en ethische risico’s van AI en benadrukte de noodzaak van verantwoorde innovatie. Meer dan de helft van de AI-professionals geeft de voorkeur aan niet-bindende regelgevingsinstrumenten zoals normen. Ongeveer de helft van de niet-AI-professionals is voorstander van afzonderlijke overheidsregels.

Een gemengde benadering van management

Uit het onderzoek bleek dat de meerderheid van de in de VS gevestigde IEEE-leden de ontwikkeling van kunstmatige intelligentie steunt en sterk pleit voor een zorgvuldig beheer ervan. De resultaten zullen een leidraad vormen voor het werk van IEEE-USA met het Congres en het Witte Huis.

Respondenten erkenden de voordelen van kunstmatige intelligentie, maar uitten hun bezorgdheid over de sociale gevolgen ervan, zoals ongelijkheid en verkeerde informatie. Het vertrouwen in de entiteiten die verantwoordelijk zijn voor het creëren en beheren van AI loopt sterk uiteen; academische instellingen worden beschouwd als de meest vertrouwde entiteiten.

Een aanzienlijke minderheid is tegen inmenging van de overheid en geeft de voorkeur aan niet-regelgevende richtlijnen en normen, maar de cijfers mogen niet op zichzelf worden bekeken. Hoewel er conceptueel gemengde opvattingen bestaan ​​ten aanzien van overheidsregulering, bestaat er een overweldigende consensus voor snelle regulering in specifieke scenario’s zoals gegevensprivacy, het gebruik van algoritmen bij daaruit voortvloeiende besluitvorming, gezichtsherkenning en autonome wapensystemen.

Over het geheel genomen verdient een gemengde benadering van bestuur de voorkeur, waarbij gebruik wordt gemaakt van wetten, regelgeving en technische en industriële standaarden.