Fouten in de kunstmatige intelligentie kunnen de mondiale vrede en veiligheid vernietigen

Dit is een gastpost. De hier geuite standpunten zijn uitsluitend die van de auteurs en vertegenwoordigen niet de standpunten van IEEE Spectrum, Instituut, of IEEE.

Velen in de civiele AI-gemeenschap lijken zich niet te realiseren dat de huidige AI-innovaties ernstige gevolgen kunnen hebben voor de internationale vrede en veiligheid. Toch kunnen AI-beoefenaars – of het nu onderzoekers, ingenieurs, productontwikkelaars of managers uit de sector zijn – een cruciale rol spelen bij het beperken van risico’s via de beslissingen die zij nemen gedurende de levenscyclus van AI-technologieën.

Er zijn een aantal manieren waarop de vooruitgang op het gebied van civiele AI de vrede en veiligheid kan bedreigen. Sommige zijn direct, zoals het gebruik van AI-aangedreven chatbots om desinformatie te creëren voor politieke beïnvloedingsoperaties. Grote taalmodellen kunnen ook worden gebruikt om code te creëren voor cyberaanvallen en om de ontwikkeling en productie van biologische wapens te vergemakkelijken.

Andere manieren zijn indirecter. Beslissingen van AI-bedrijven over de vraag of en onder welke voorwaarden zij hun software open source moeten maken, hebben bijvoorbeeld geopolitieke implicaties. Dergelijke beslissingen bepalen hoe staten of niet-statelijke actoren toegang krijgen tot kritieke technologie, die zij zouden kunnen gebruiken om militaire AI-toepassingen te ontwikkelen, waaronder mogelijk autonome wapensystemen.

AI-bedrijven en onderzoekers moeten zich meer bewust worden van de uitdagingen en hun vermogen om daar iets aan te doen.

Verandering moet beginnen met de opleiding en loopbaanontwikkeling van AI-beoefenaars. Technisch gezien zijn er veel opties op het gebied van instrumenten voor verantwoorde innovatie die AI-onderzoekers zouden kunnen gebruiken om de risico’s die hun werk met zich meebrengt te identificeren en te beperken. Ze moeten de kans krijgen om over dergelijke opties te leren, waaronder IEEE 7010: Aanbevolen praktijk voor het beoordelen van de impact van autonome en intelligente systemen op het menselijk welzijn, IEEE 7007-2021: Ontologische standaard voor ethisch aangestuurde robotica en automatiseringssystemen, en het National Institute voor Risk Management Framework door standaarden en technologie.

Als onderwijsprogramma’s fundamentele kennis bieden over de sociale impact van technologie en hoe technologiebeheer werkt, zullen AI-beoefenaars beter in staat zijn om verantwoord te innoveren en betekenisvolle ontwerpers en uitvoerders van regelgeving te zijn.

Wat moet er veranderen in het AI-onderwijs

Verantwoordelijke kunstmatige intelligentie vereist een reeks capaciteiten die normaal gesproken niet aan bod komen in AI-onderwijs. AI moet niet langer worden behandeld als een pure STEM-discipline, maar als een transdisciplinaire discipline die technische kennis vereist, ja, maar ook inzichten uit de sociale en geesteswetenschappen. Er moeten verplichte cursussen komen over de sociale impact van technologie en verantwoorde innovatie, evenals specifieke trainingen over de ethiek en het bestuur van kunstmatige intelligentie.

Deze vakken moeten deel uitmaken van het kerncurriculum op bachelor- en masterniveau op alle universiteiten die AI-graden aanbieden.

Als onderwijsprogramma’s fundamentele kennis bieden over de maatschappelijke impact van technologie en hoe technologisch bestuur werkt, zullen AI-beoefenaars in staat worden gesteld om verantwoord te innoveren en betekenisvolle ontwerpers en uitvoerders van AI-regelgeving te zijn.

Het veranderen van het AI-onderwijscurriculum is geen kleine opgave. In sommige landen vereisen wijzigingen in de universitaire curricula goedkeuring op ministerieel niveau. Voorgestelde veranderingen kunnen op interne weerstand stuiten vanwege culturele, bureaucratische of financiële redenen. Ondertussen kan de expertise van bestaande docenten over nieuwe onderwerpen beperkt zijn.

Een groeiend aantal universiteiten biedt deze vakken nu echter als keuzevakken aan, waaronder Harvard, New York University, Sorbonne University, Umeå University en de University of Helsinki.

Er is geen behoefte aan een one-size-fits-all onderwijsmodel, maar er is zeker wel behoefte aan financiering om toegewijd personeel aan te nemen en op te leiden.

Verantwoorde kunstmatige intelligentie toevoegen aan levenslang leren

De AI-gemeenschap moet permanente educatiecursussen ontwikkelen over de maatschappelijke impact van AI-onderzoek, zodat praktijkmensen gedurende hun hele loopbaan over dergelijke onderwerpen kunnen blijven leren.

AI zal op onverwachte manieren evolueren. Om de risico’s ervan te identificeren en te beperken zijn voortdurende discussies nodig waarbij niet alleen onderzoekers en ontwikkelaars betrokken zijn, maar ook de mensen die direct of indirect door het gebruik ervan kunnen worden getroffen. Een goed afgerond programma voor permanente educatie zou inzichten van alle belanghebbenden opleveren.

Sommige universiteiten en particuliere bedrijven hebben al ethische beoordelingsraden en beleidsteams die de impact van AI-instrumenten beoordelen. Hoewel het mandaat van de teams doorgaans geen training omvat, zouden hun taken kunnen worden uitgebreid om de cursussen voor iedereen in de organisatie beschikbaar te maken. Opleiding in verantwoord AI-onderzoek mag geen kwestie van individueel belang zijn; het moet worden aangemoedigd.

Organisaties als de IEEE en de Association for Computing Machinery zouden een belangrijke rol kunnen spelen bij het opzetten van permanente educatiecursussen, omdat ze goed gepositioneerd zijn om informatie te bundelen en de dialoog te faciliteren, wat zou kunnen resulteren in het vaststellen van ethische normen.

Betrokkenheid bij de wijdere wereld

We hebben ook AI-beoefenaars nodig om kennis te delen en discussies te initiëren over potentiële risico’s buiten de grenzen van de AI-onderzoeksgemeenschap.

Gelukkig zijn er al talloze socialemediagroepen die actief discussiëren over de risico’s van kunstmatige intelligentie, waaronder het misbruik van civiele technologie door statelijke en niet-statelijke actoren. Er zijn ook gespecialiseerde organisaties die zich richten op verantwoorde kunstmatige intelligentie en die kijken naar de geopolitieke en veiligheidsimplicaties van AI-onderzoek en -innovatie. Hiertoe behoren het AI Now Institute, het Center for Governance of AI, Data and Society, het Distributed AI Research Institute, het Montreal AI Ethics Institute en het Partnership for AI.

Deze gemeenschappen zijn momenteel echter te klein en niet voldoende divers, omdat hun meest prominente leden doorgaans een vergelijkbare achtergrond delen. Hun gebrek aan diversiteit zou ertoe kunnen leiden dat groepen de risico’s voor ondervertegenwoordigde bevolkingsgroepen negeren.

Bovendien hebben AI-beoefenaars mogelijk hulp en begeleiding nodig bij het omgaan met mensen buiten de AI-onderzoeksgemeenschap – vooral beleidsmakers. Het formuleren van problemen of aanbevelingen op een manier die niet-technische personen kunnen begrijpen, is een noodzakelijke vaardigheid.

We moeten manieren vinden om bestaande gemeenschappen te laten groeien, ze diverser en inclusiever te maken, en ze beter te laten samenwerken met de rest van de samenleving. Grote professionele organisaties als IEEE en ACM zouden kunnen helpen, bijvoorbeeld door toegewijde werkgroepen van experts op te richten of door trajecten op AI-conferenties op te zetten.

Universiteiten en de private sector kunnen ook helpen door posities en afdelingen te creëren of uit te breiden die zich richten op de maatschappelijke impact van AI en de governance van AI. Umeå University heeft onlangs het AI Policy Lab opgericht om deze problemen aan te pakken. Bedrijven als Anthropic, Google, Meta en OpenAI hebben afdelingen of eenheden opgericht die zich met dergelijke onderwerpen bezighouden.

Er zijn groeiende bewegingen over de hele wereld om AI te reguleren. Recente ontwikkelingen zijn onder meer de oprichting van het VN-adviesorgaan op hoog niveau voor kunstmatige intelligentie en de Global Commission on Responsible Artificial Intelligence in the Military Domain. De G7-leiders brachten een verklaring uit over het AI-proces in Hiroshima, en de Britse regering was vorig jaar gastheer van de eerste AI-veiligheidstop.

Een centrale vraag waarmee toezichthouders worden geconfronteerd, is of er op kan worden vertrouwd dat AI-onderzoekers en bedrijven de technologie op verantwoorde wijze ontwikkelen.

Naar onze mening is investeren in onderwijs een van de meest efficiënte en effectieve manieren om ervoor te zorgen dat AI-ontwikkelaars de verantwoordelijkheid voor de risico’s nemen. Als beoefenaars van vandaag en morgen over de basiskennis en middelen moeten beschikken om de risico’s die uit hun werk voortvloeien, aan te pakken, willen zij effectieve ontwerpers en uitvoerders van toekomstige AI-regelgeving zijn.

Opmerking van de auteur: Auteurs worden gerangschikt op niveau van bijdrage. De auteurs zijn door het initiatief bij elkaar gebracht VN-Bureau voor Ontwapeningszaken En Stockholm Internationaal Instituut voor Vredesonderzoek gelanceerd met de steun van het toenmalige initiatief van de Europese Unie Verantwoorde innovatie op het gebied van AI voor internationale vrede en veiligheid.