Het is moeilijk om de aantrekkingskracht van AI-metgezellen te weerstaan. Hier ziet u hoe innovatie op het gebied van regelgeving mensen kan helpen beschermen.

Zodra we de psychologische dimensies van AI-gezelschap begrijpen, kunnen we effectieve beleidsinterventies ontwerpen. Er is aangetoond dat het verleggen van de focus van mensen naar het beoordelen van de waarheidsgetrouwheid van de inhoud voordat deze online wordt gedeeld, desinformatie vermindert, terwijl gruwelijke afbeeldingen op pakjes sigaretten al worden gebruikt om potentiële rokers af te schrikken. Soortgelijke ontwerpbenaderingen zouden de gevaren van de afhankelijkheid van kunstmatige intelligentie kunnen benadrukken en AI-systemen minder aantrekkelijk kunnen maken als vervanging voor de menselijke samenleving.

Het is moeilijk om het menselijke verlangen om geliefd en vermaakt te worden te veranderen, maar we kunnen misschien wel de economische prikkels veranderen. Een AI-betrokkenheidsbelasting zou mensen kunnen aanmoedigen om betere interacties te hebben en een veiligere manier kunnen aanmoedigen om platforms te gebruiken, regelmatig maar voor korte perioden. Net zoals staatsloterijen zijn gebruikt om onderwijs te financieren, zou een betrokkenheidsbelasting activiteiten kunnen financieren die de menselijke verbinding bevorderen, zoals kunstcentra of parken.

Het kan nodig zijn om de regelgeving opnieuw te bekijken

In 1992 identificeerde Sherry Turkle, een vooraanstaand psycholoog die een pionier was in het onderzoek naar interacties tussen mens en technologie, de bedreigingen die technische systemen vormen voor menselijke relaties. Een van de belangrijkste uitdagingen die voortkomen uit het werk van Turkle gaat over de vraag die ten grondslag ligt aan deze vraag: wie zijn wij om te zeggen dat waar je van houdt niet is wat je verdient?

Om goede redenen heeft onze liberale samenleving moeite met het reguleren van de soorten schade die we hier beschrijven. Net zoals het verbod op overspel terecht is afgedaan als een onliberale inbreuk op persoonlijke aangelegenheden, is wie – of wat – we willen liefhebben geen zaak van de overheid. Tegelijkertijd is het universele verbod op kinderpornomateriaal een voorbeeld van een duidelijke lijn die getrokken moet worden, zelfs in een samenleving die vrijheid van meningsuiting en persoonlijke vrijheid hoog in het vaandel heeft staan. De moeilijkheid bij het reguleren van een AI-samenleving kan nieuwe regelgevingsbenaderingen vereisen – gebaseerd op een dieper begrip van de prikkels die ten grondslag liggen aan deze metgezellen – die profiteren van nieuwe technologieën.

Een van de meest effectieve benaderingen van regelgeving is het direct inbouwen van veiligheidsmaatregelen in technische ontwerpen, vergelijkbaar met de manier waarop ontwerpers verstikkingsgevaar voorkomen door kinderspeelgoed groter te maken dan de mond van een baby. Deze ‘regulation by design’-benadering zou kunnen proberen interacties met AI minder schadelijk te maken door de technologie zo te ontwerpen dat deze minder wenselijk wordt als vervanging voor menselijke verbindingen, terwijl deze nog steeds bruikbaar is in andere contexten. Nieuw onderzoek kan nodig zijn om betere manieren te vinden om het gedrag van grote AI-modellen te beperken met technieken die de doelen van AI op een technisch basisniveau veranderen. ‘alignment tuning’ verwijst bijvoorbeeld naar een reeks trainingstechnieken die tot doel hebben AI-modellen in overeenstemming te brengen met menselijke voorkeuren; dit zou kunnen worden uitgebreid om hun verslavende potentieel aan te pakken. Op dezelfde manier heeft ‘mechanische interpreteerbaarheid’ tot doel de manier waarop AI-modellen beslissingen nemen, te reverse-engineeren. Deze aanpak zou kunnen worden gebruikt om specifieke delen van een AI-systeem die tot schadelijk gedrag leiden, te identificeren en te elimineren.

We kunnen de prestaties van AI-systemen evalueren met behulp van door mensen aangestuurde interactieve technieken die verder gaan dan statische benchmarking om verslavende mogelijkheden te benadrukken. Het besmettelijke karakter van AI is het resultaat van complexe interacties tussen de technologie en zijn gebruikers. Door het model onder reële omstandigheden te testen met gebruikersinvoer kunnen gedragspatronen aan het licht komen die anders onopgemerkt zouden blijven. Onderzoekers en beleidsmakers moeten samenwerken om standaardpraktijken vast te stellen voor het testen van AI-modellen met diverse groepen, waaronder kwetsbare bevolkingsgroepen, om ervoor te zorgen dat modellen de psychologische predisposities van mensen niet uitbuiten.

In tegenstelling tot mensen kunnen AI-systemen zich gemakkelijk aanpassen aan veranderend beleid en regels. Het principe van ‘juridische dynamiek’, dat wetten presenteert als dynamische systemen die zich aanpassen aan externe factoren, kan ons helpen de best mogelijke interventie te identificeren, zoals ‘handelsbeperkingen’ die de aandelenhandel onderbreken om crashes na een grote marktdaling te voorkomen. In het geval van AI omvatten de veranderingsfactoren zaken als de mentale toestand van de gebruiker. Een dynamisch beleid zou er bijvoorbeeld voor kunnen zorgen dat een AI-metgezel in de loop van de tijd steeds aantrekkelijker, charmanter of flirteriger wordt als dat is wat de gebruiker wil, zolang de persoon geen tekenen van sociaal isolement of verslaving vertoont. Deze aanpak kan helpen de persoonlijke keuze te maximaliseren en tegelijkertijd de verslaving te minimaliseren. Maar het is afhankelijk van het vermogen om het gedrag en de mentale toestand van een gebruiker nauwkeurig te begrijpen en deze gevoelige kenmerken op een privacybeschermende manier te meten.

De meest effectieve oplossing voor deze problemen zou waarschijnlijk slaan op wat individuen in de armen van een AI-samenleving drijft: eenzaamheid en verveling. Maar regelgevende interventies kunnen ook onbedoeld degenen benadelen die de samenleving nodig hebben, of kunnen ertoe leiden dat AI-leveranciers verhuizen naar een gunstiger rechtsgebied op een gedecentraliseerde internationale markt. Hoewel we ernaar moeten streven om AI zo veilig mogelijk te maken, kan dit werk de inspanningen om grotere problemen aan te pakken, zoals eenzaamheid, die mensen kwetsbaar maken voor AI-verslaving, niet vervangen.