AI veroorzaakt op zichzelf geen schade. We moeten ons zorgen maken over de mensen die er controle over hebben | Kenan Malik

AT keer leek het minder Succes liever Fawlty-torens, niet zozeer een tragedie van Shakespeare als wel een farce van Laurel en Hardy. OpenAI is vandaag de dag het populairste technologiebedrijf dankzij het succes van zijn beroemdste product, chatbot ChatGPT. Het was onvermijdelijk dat de chaos rond het ontslag en de daaropvolgende heraanstelling van Sam Altman als CEO zich de afgelopen week in de mondiale media zou afspelen, gepaard gaande met zowel verbazing als verwarring.

Voor sommigen sprak de farce over de incompetentie van het bestuur; voor anderen, om in conflict te komen monsterlijk ego. In diepere zin weerspiegelde de onrust ook veel van de tegenstellingen in het hart van de technologie-industrie. De tegenstelling tussen de egoïstische mythe van technologie-ondernemers als opstandige ‘ontwrichters’ en hun controle over het miljardenmonster van een industrie waarmee ze ons hele leven vormgeven. Ook de spanning tussen de visie op AI als een mechanisme om het menselijk leven te transformeren en de angst dat het een existentiële bedreiging voor de mensheid zou kunnen zijn.

Weinig organisaties belichamen deze tegenstrijdigheden meer dan OpenAI. Een sterrenstelsel van zwaargewichten uit Silicon Valley, waaronder Elon Musk en Peter Thiel, die de organisatie in 2015 oprichtten, zagen zichzelf als zowel evangelisten voor AI als voorbodes van de dreiging die deze vormt. “Met kunstmatige intelligentie roepen we een demon op”, zei Musk.

De combinatie van ongebreideld zelfrespect voor zichzelf als uitzonderlijke individuen die de toekomst veroveren en diep pessimisme over andere mensen en de samenleving heeft de angst voor de apocalyps om de hoek bijna verplicht gemaakt voor de titanen van de technologie. Velen zijn ‘voorbereiders’, overlevenden die klaar zijn voor de mogelijkheid van een Gekke Max de wereld. “Ik heb wapens, goud, kaliumjodide, antibiotica, batterijen, water, gasmaskers van het Israëlische leger en een groot stuk land in Big Sur waar ik naartoe kan vliegen”, vertelde Altman. De New Yorker kort nadat OpenAI was gemaakt. De beste ondernemers, zo beweert hij, zijn ‘zeer paranoïde, zeer vol existentiële crises’. Inclusief, onvermijdelijk, AI.

OpenAI is opgericht als een liefdadigheidsinstelling zonder winstoogmerk, met als doel het ontwikkelen van kunstmatige algemene intelligentie, of AGI, wat grofweg een machine is die elke intellectuele taak die mensen kunnen uitvoeren, kan uitvoeren of overtreffen. Het zou dit echter op een ethische manier doen, ten behoeve van de “mensheid als geheel”.

Vervolgens richtte de liefdadigheidsinstelling in 2019 een dochteronderneming met winstoogmerk op om meer investeringen aan te trekken, en haalde uiteindelijk meer dan $11 miljard (£8,7 miljard) binnen van Microsoft. De moederorganisatie zonder winstoogmerk behield echter de volledige controle, waardoor de spanning tussen het verlangen naar winst en de zorgen over winstgevende producten geïnstitutionaliseerd werden. Het buitengewone succes van ChatGPT heeft die spanning alleen maar vergroot.

Twee jaar geleden vertrok een groep OpenAI-onderzoekers om een ​​nieuwe organisatie op te richten, Anthropic, uit angst voor het tempo van de AI-ontwikkeling bij hun oude bedrijf. Een van hen vertelde later aan een verslaggever dat “er een kans van 20% is dat malafide AI de mensheid in het komende decennium zal vernietigen.” Diezelfde angst lijkt de aanleiding te zijn geweest voor de poging om Altman te verdedigen en voor de chaos in de bestuurskamer van vorige week.

Je kunt je afvragen wat de psychologie is van het blijven creëren van machines waarvan we denken dat ze het menselijk leven kunnen uitroeien. De ironie is echter dat, hoewel de angst voor AI overdreven is, de angst zelf zijn eigen gevaar met zich meebrengt. Het overdreven alarm over AI komt voort uit een opgeblazen gevoel van de mogelijkheden ervan. ChatGPT is buitengewoon goed in het voorspellen van wat het volgende woord in een reeks zou moeten zijn; zo goed zelfs dat we ons voorstellen dat we met hem kunnen praten als met een andere man. Maar hij kan de betekenis van die woorden niet bevatten, zoals mensen dat doen, en heeft een verwaarloosbaar begrip van de echte wereld. We blijven ver verwijderd van de droom van ‘kunstmatige algemene intelligentie’. “AGI gaat niet gebeuren”, zegt Grady Booch, hoofdsoftware-engineeringwetenschapper bij IBM suggereerdezelfs “in de levens van de kinderen van uw kinderen”.

Voor degenen in Silicon Valley die het daar niet mee eens zijn en geloven dat AGI onvermijdelijk is: mensen moeten worden beschermd door ‘afstemming’ – ervoor zorgen dat AI ‘op één lijn ligt met menselijke waarden en de menselijke bedoelingen volgt’. Dit lijkt misschien een rationele manier om de schade die AI zou kunnen veroorzaken, te compenseren. Dat wil zeggen, totdat je jezelf begint af te vragen wat ‘menselijke waarden’ eigenlijk zijn, wie ze definieert en wat er gebeurt als ze botsen?

Sociale waarden worden altijd uitgedaagd, vooral vandaag de dag, in een tijdperk van wijdverbreide ontevredenheid die vaak wordt veroorzaakt door het uiteenvallen van consensuele normen. Onze relatie tot technologie is op zichzelf een kwestie van debat. Voor sommigen overtreft de noodzaak om haat te beteugelen of mensen te beschermen tegen online schade elk recht op vrijheid van meningsuiting of privacy. Dit is het sentiment achter de nieuwe internetveiligheidswet in Groot-Brittannië. Dit is ook de reden waarom velen zich zorgen maken over de gevolgen van de wet.

Dan is er nog de kwestie van desinformatie. Weinig mensen zullen ontkennen dat desinformatie een probleem is en alleen maar groter zal worden, waardoor lastige vragen over democratie en vertrouwen rijzen. De vraag hoe we hiermee omgaan blijft echter zeer controversieel, vooral omdat veel pogingen om desinformatie te reguleren resulteren in nog grotere bevoegdheden voor technologiebedrijven om toezicht te houden op het publiek.

Ondertussen benadrukt een ander zorgpunt, de algoritmische vooringenomenheid, de zwakke punten van het ‘matching’-argument. De reden dat algoritmen de neiging hebben om bevooroordeeld te zijn, vooral tegenover minderheden, is juist omdat ze aansluiten bij menselijke waarden. AI-programma’s worden getraind op data uit de menselijke wereld, die doordrenkt is van discriminerende praktijken en ideeën. Ze worden ook opgenomen in software voor kunstmatige intelligentie, of het nu gaat om het strafrechtsysteem of de gezondheidszorg, gezichtsherkenning of rekrutering.

Het probleem waarmee we worden geconfronteerd, is niet dat machines op een dag macht over mensen zouden kunnen uitoefenen. Dit zijn speculaties die niet worden gerechtvaardigd door de huidige ontwikkelingen. Het gaat over het feit dat we al in samenlevingen leven waarin de macht wordt uitgeoefend door weinigen ten koste van de meerderheid, en dat technologie een middel biedt om die macht te consolideren. Voor degenen met sociale, politieke en economische macht is het logisch om problemen te projecteren als technologisch in plaats van sociaal, en als liggend in de toekomst in plaats van in het heden.

Er zijn weinig hulpmiddelen die nuttig zijn voor mensen en die niet ook schade kunnen aanrichten. Maar ze veroorzaken zelden zelf schade; ze doen dit eerder door de manier waarop mensen er misbruik van maken, vooral degenen met macht. Dat, en niet de fantasieangst voor uitsterven, zou het uitgangspunt moeten zijn voor elke discussie over AI.

Kenan Malik is columnist voor The Observer