TechScape: waarom de AI-beveiligings-‘Vanity Jamboree’ van Sunak eigenlijk … een succes was | Technologie

Fof Max Tegmark, de kunstmatige intelligentietop van vorige week in Bletchley Park was een emotioneel moment. Een MIT-professor en AI-onderzoeker zit dit jaar achter een brief waarin wordt opgeroepen tot een pauze in de ontwikkeling van geavanceerde systemen. Het gebeurde niet, maar het leverde een belangrijke bijdrage aan het politieke en academische momentum dat resulteerde in de bijeenkomst in Bletchley.

“[The summit] het maakte me eigenlijk optimistischer. Het overtrof echt mijn verwachtingen”, vertelde hij me. “Ik werk al ongeveer tien jaar, in de hoop dat er op een dag een internationale top over de beveiliging van kunstmatige intelligentie zal plaatsvinden. Het met mijn eigen ogen zien gebeuren – en het verrassend goed doen – was heel ontroerend.”

Tegmark hield een briefje van £ 50 vast met het gezicht van Bletchley-codebreker Alan Turing erop en voegde eraan toe dat het computergenie – een baanbrekende figuur in de geschiedenis van AI – gelijk had gekregen. “Ik ben het met Turing eens: de standaarduitkomst als we ons haasten om machines te bouwen die veel slimmer zijn dan wij, is dat we de controle over onze toekomst verliezen en waarschijnlijk zullen worden weggevaagd.”

Maar Tegmark denkt dat er vooruitgang is geboekt bij Bletchley. Hier is een korte samenvatting van wat er is gebeurd.

De Bletchley-verklaring

De top begon met een verklaring die werd ondertekend door bijna dertig regeringen, waaronder de VS en China, samen met de EU. Rishi Sunak omschreef de verklaring als “behoorlijk verbazingwekkend”, nadat hij erin slaagde concurrerende grootmachten en landen met verschillende opvattingen over de ontwikkeling van kunstmatige intelligentie tot overeenstemming te krijgen over een gemeenschappelijke boodschap.

De verklaring begint met te verwijzen naar kunstmatige intelligentie als een middel dat ‘enorme mondiale kansen’ biedt met het potentieel om ‘het menselijk welzijn, de vrede en de welvaart te transformeren en te verbeteren’ – maar de technologie moet worden ontworpen op een manier die ‘mensgericht en betrouwbaar is’. en aansprakelijk”. Er wordt ook de nadruk gelegd op internationale samenwerking, waaronder een oproep tot een “internationaal inclusief wetenschappelijk onderzoeksnetwerk” op het gebied van AI-veiligheid.

Maar het meest opvallende deel betrof het centrale doel van de top: ervoor zorgen dat grensverleggende kunstmatige intelligentie – de term voor de meest geavanceerde systemen – niet uit de hand loopt. Verwijzend naar het potentieel van AI om rampen te veroorzaken, zei het rapport: “Er is een potentieel voor ernstige, zelfs catastrofale schade, opzettelijk of onopzettelijk, die voortkomt uit de belangrijkste mogelijkheden van deze AI-modellen.”

Die opvallende zin werd voorafgegaan door een verwijzing naar meer directe schade, zoals cyberaanvallen en desinformatie. Het debat over de vraag of AI de mensheid zou kunnen vernietigen is aan de gang – en er bestaat de overtuiging dat de angst overdreven is – maar er lijkt een consensus te bestaan ​​dat door AI gegenereerde desinformatie een onmiddellijke zorg is die moet worden aangepakt.

De ambitie van Sunak om van de top een regelmatig evenement te maken, is vervuld. Zuid-Korea zal over zes maanden een virtueel evenement organiseren, en Frankrijk zal over twaalf maanden een volledige top organiseren.

Groot-Brittannië mag de wereldleiders dan misschien niet allemaal tegelijk naar de camera laten kijken, maar ze moeten wel instemmen met het creëren van een AI-veiligheidskader.
Groot-Brittannië krijgt de wereldleiders misschien niet zover om naar de camera te kijken, maar het heeft ze er wel toe gebracht overeenstemming te bereiken over het creëren van een AI-veiligheidskader. Foto: Leon Neal/Getty Images

Zullen deze zorgvuldig geformuleerde woorden leiden tot veranderingen in de regelgeving of de wetgeving? Charlotte Walker-Osborn, technologiepartner bij het internationale advocatenkantoor Morrison Foerster, zegt dat de verklaring “waarschijnlijk een bepaald niveau van internationale wetgevende en bestuurlijke consensus over de belangrijkste principes voor AI-regulering verder zal bevorderen”. Ze noemt bijvoorbeeld basisprincipes als transparantie over wanneer en hoe AI wordt gebruikt, informatie over gegevens die worden gebruikt in trainingssystemen en een vereiste voor betrouwbaarheid (die alles omvat, van bevooroordeelde resultaten tot deepfakes).

Walker-Osborn zegt echter dat een “echt uniforme aanpak onwaarschijnlijk is” vanwege de “verschillende benaderingen van regulering en bestuur in het algemeen” tussen landen. Toch is de verklaring een mijlpaal, al was het maar omdat er wordt erkend dat AI zich niet kan blijven ontwikkelen zonder sterker toezicht.

Staat van AI-rapport

Sunak kondigde op de top een rapport aan over de ‘staat van de AI-wetenschap’, waarvan het eerste werd voorgezeten door Yoshua Bengio, een van de drie zogenaamde ‘peetvaders van de kunstmatige intelligentie’, die de ACM Turing Award won – de computerwetenschap equivalent van de Nobelprijs – in 2018 voor zijn werk op het gebied van kunstmatige intelligentie. De groep die het rapport zal schrijven zal bestaan ​​uit vooraanstaande academici op het gebied van kunstmatige intelligentie en zal worden ondersteund door een adviespanel dat is samengesteld uit landen die de top hebben bijgewoond (dus de VS en China zullen aanwezig zijn).

Bengio was een van de ondertekenaars van de brief van Tegmark en ondertekende in mei ook een verklaring waarin hij waarschuwde dat het beperken van het risico van uitsterven door AI een mondiale prioriteit zou moeten zijn naast pandemieën en een nucleaire oorlog. Hij neemt het onderwerp AI-beveiliging serieus.

De Britse premier zei dat het idee was geïnspireerd door het Intergouvernementeel Panel voor Klimaatverandering en werd gesteund door VN-secretaris-generaal António Guterres. die de top bijwoonden. Het zal echter geen door de VN gehost project zijn, waarbij het door de Britse overheid gesteunde Artificial Intelligence Security Institute het rapportbureau van Bengi zal huisvesten.

nieuwsbriefpromotie overslaan

Internationale veiligheidstests

Een groep regeringen die de top bijwoonden en grote AI-bedrijven kwamen overeen om samen te werken bij het testen van hun AI-modellen voor en na de publieke release ervan. Onder de elf ondertekenende regeringen bevonden zich de EU, de VS, Groot-Brittannië, Australië en Japan – maar niet China. Tot de acht bedrijven behoorden Google, ChatGPT-ontwikkelaar OpenAI, Microsoft, Amazon en Meta.

Groot-Brittannië heeft al een partnerschap gesloten tussen zijn AI Security Institute en zijn Amerikaanse tegenhanger (vorige week aangekondigd voorafgaand aan de top), evenals met Singapore, om samen te werken op het gebied van beveiligingstests. Dit is een vrijwillige setting en er bestaat enige scepsis over hoeveel impact de aankondigingen van Bletchley zullen hebben als ze niet door regelgeving worden ondersteund. Sunak vertelde verslaggevers vorige week dat hij nog niet klaar was om wetgeving uit te vaardigen en dat eerst verder testen van geavanceerde modellen nodig was (hoewel hij eraan toevoegde dat er op een gegeven moment waarschijnlijk “verplichte eisen” nodig zouden zijn).

Dit betekent dat het uitvoeringsbesluit van het Witte Huis over het gebruik van kunstmatige intelligentie, uitgevaardigd in dezelfde week als de top, en de komende wet op de kunstmatige intelligentie van de Europese Unie het Verenigd Koninkrijk zelfs nog verder voor zijn bij het introduceren van nieuwe, bindende regelgeving voor de technologie.

“Als het gaat om het gedrag van modelbouwers … zullen de komende EU-AI-wet en het uitvoerend bevel van president Biden waarschijnlijk een grotere impact hebben”, zegt Martha Bennett, hoofdanalist bij Forrester.

Anderen zijn echter blij met de manier waarop Bletchley het debat heeft vormgegeven en verschillende standpunten heeft samengebracht. Professor Dame Muffy Calder, adjunct-directeur en hoofd van het college voor wetenschap en techniek aan de Universiteit van Glasgow, was bezorgd dat de top zich te veel zou bezighouden met existentiële risico’s in plaats van met ‘echte en actuele kwesties’. Die angst is volgens haar weggenomen. “De top en de verklaring gaan verder dan alleen de risico’s van ‘grensoverschrijdende AI'”, zegt ze. “Kwesties als transparantie, eerlijkheid, verantwoordingsplicht, regulering, passend menselijk toezicht en wettelijke kaders worden bijvoorbeeld expliciet vermeld in de verklaring. Evenals samenwerking. Dit is geweldig.”

Lees meer over dit verhaal

Als u de volledige versie van de nieuwsbrief wilt lezen, kunt u zich abonneren om TechScape elke dinsdag in uw inbox te ontvangen