AI zou een ‘catastrofale’ financiële crisis kunnen veroorzaken, zegt Yuval Noah Harari | Kunstmatige intelligentie (AI)

AKunstmatige intelligentie zou een financiële crisis met ‘catastrofale’ gevolgen kunnen veroorzaken, aldus historicus en auteur Yuval Noah Harari, die zegt dat de verfijning van de technologie het moeilijk maakt om de gevaren ervan te voorspellen.

Harari vertelde de Guardian dat zorgen over het testen van de veiligheid van AI-modellen alle problemen voorzagen die een krachtig systeem zou kunnen veroorzaken. In tegenstelling tot kernwapens was er niet één ‘groot, gevaarlijk scenario’ dat iedereen begreep, zei hij.

“Met AI heb je het over een zeer groot aantal gevaarlijke scenario’s, waarvan elk een relatief lage kans heeft om collectief… een existentiële bedreiging te vormen voor het voortbestaan ​​van de menselijke beschaving.”

De Sapiens-auteur, die een prominente stem is geweest van bezorgdheid over de ontwikkeling van kunstmatige intelligentie, zei dat de multilaterale verklaring van vorige week op de wereldtop over AI-beveiliging in Bletchley Park “een zeer belangrijke stap voorwaarts” was toen leidende regeringen samenkwamen om hun mening te uiten. zorgen over de technologie. en er iets aan te doen.

“Misschien is het meest bemoedigende en meest hoopvolle eraan dat ze niet alleen de Europese Unie, Groot-Brittannië, de Verenigde Staten, maar ook de regering van China ertoe kunnen brengen de verklaring te ondertekenen”, zei hij. ‘Ik denk dat het een heel positief teken was. Zonder mondiale samenwerking zal het uiterst moeilijk, zo niet onmogelijk zijn om het gevaarlijkste potentieel van kunstmatige intelligentie in bedwang te houden.”

De top werd afgesloten met een overeenkomst tussen tien regeringen – waaronder Groot-Brittannië en de VS, maar niet China – de EU en grote AI-bedrijven, waaronder ChatGPT-ontwikkelaar OpenAI en Google, om samen te werken aan het testen van geavanceerde AI-modellen voor en na de release ervan.

Harari zei dat een probleem bij het testen van de beveiliging van het model het voorspellen van alle problemen is die een krachtig systeem kan veroorzaken. “AI verschilt van alle voorgaande technologieën in de geschiedenis van de mensheid, omdat het de eerste technologie is die zelfstandig beslissingen kan nemen, die op eigen kracht nieuwe ideeën kan creëren, en die op eigen kracht kan leren en evolueren. Bijna per definitie is het extreem moeilijk voor mensen, zelfs voor de mensen die de technologie hebben gecreëerd, om alle potentiële gevaren en problemen te voorzien.”

Regeringen hebben de dreiging van AI-systemen genoemd die helpen bij het maken van biologische wapens wanneer ze proberen de gevaren ervan aan het publiek uit te leggen, zei Harari, maar er zijn andere scenario’s die kunnen worden overwogen. De auteur wees op de financiering als een sector die ideaal is voor AI-systemen – “dit is een ideaal terrein voor AI omdat het alleen maar data zijn” – en een potentiële bron van een ernstige door AI veroorzaakte crisis.

“Wat zal er gebeuren als AI niet alleen meer controle krijgt over het financiële systeem van de wereld, maar ook nieuwe financiële apparaten gaat creëren die alleen AI kan begrijpen en geen mens kan begrijpen?”, zei Harari, eraan toevoegend dat de financiële crisis van 2007 door schulden werd veroorzaakt. instrumenten zoals collateralized debt obligatieleningen (CDO’s) die weinig mensen begrepen en daarom onvoldoende gereguleerd waren.

“AI heeft het potentieel om financiële apparaten te creëren die ordes van grootte complexer zijn dan CDO’s. En stel je eens een situatie voor waarin we een financieel systeem hebben dat geen mens kan begrijpen en daarom niet kan reguleren”, zei hij. “En dan is er de financiële crisis en niemand begrijpt wat er aan de hand is.”

Vorige maand uitte de Britse regering haar bezorgdheid over een geavanceerd AI-model dat mogelijk een existentiële bedreiging vormt voor de controle en manipulatie van financiële systemen. Maar Harari zei dat een financiële crisis veroorzaakt door kunstmatige intelligentie de menselijke beschaving niet zal vernietigen – “althans niet direct”. Hij voegde eraan toe: “Het zou indirect kunnen gebeuren als het bepaalde soorten oorlogen of conflicten veroorzaakt. Het is een catastrofaal risico – economisch, sociaal, politiek – maar ik zou het op zichzelf niet als existentieel willen omschrijven.”

sla de nieuwsbriefpromotie over

De Israëlische auteur, die de oproep heeft gesteund voor een pauze van zes maanden in de geavanceerde AI-ontwikkeling en die voorstander is van het aansprakelijk stellen van AI-bedrijven voor schade veroorzaakt door hun producten, zei dat de nadruk niet moet liggen op specifieke regelgeving en wetten, maar op regelgevende instellingen die kennis hebben van technologie. die snel kunnen reageren wanneer er nieuwe ontdekkingen plaatsvinden.

‘We moeten zo snel mogelijk krachtigere regelgevende instellingen creëren die in staat zijn gevaren te herkennen en te reageren op gevaren die zich voordoen, op basis van het inzicht dat we niet alle gevaren en problemen van tevoren kunnen voorzien en er van tevoren wetgeving tegen kunnen opstellen. Hij voegde eraan toe: “Dit zou een grote inspanning moeten zijn, niet een poging om een ​​zeer lange en ingewikkelde regelgeving op te stellen die al verouderd zou kunnen zijn tegen de tijd dat deze door het parlement of congres wordt aangenomen.”

Als onderdeel van die opzet zouden AI-beveiligingsinstituten experts moeten inhuren die de potentiële impact van AI op de financiële wereld begrijpen, zei Harari.

Vorige maand kondigde Rishi Sunak de oprichting aan van een AI-beveiligingsinstituut in Groot-Brittannië, en dagen later kondigde het Witte Huis plannen aan voor een soortgelijk orgaan, waarvan beide naar verwachting een sleutelrol zullen spelen bij het testen van geavanceerde AI-modellen. Tijdens de top zei Sunak dat Groot-Brittannië eerst de mogelijkheden van geavanceerde modellen moet begrijpen voordat er wetgeving wordt geïntroduceerd om hiermee om te gaan.