Top in Seoul toont de vooruitgang van Groot-Brittannië bij het veilig maken van geavanceerde kunstmatige intelligentie | Kunstmatige intelligentie (AI)

Groot-Brittannië leidt een internationale inspanning om de meest geavanceerde AI-modellen te testen op veiligheidsrisico’s voordat ze het publiek bereiken, terwijl toezichthouders zich haasten om een ​​functionerend veiligheidsregime te creëren voorafgaand aan een top in Parijs over zes maanden.

Het Britse AI Security Institute, het eerste in zijn soort, heeft nu paren van over de hele wereld, waaronder Zuid-Korea, de VS, Singapore, Japan en Frankrijk.

Regelgevers op een top over kunstmatige intelligentie in Seoul hopen dat de instanties kunnen samenwerken om een ​​21e-eeuwse versie van het Montreal Protocol te creëren, een baanbrekende overeenkomst om CFK’s onder controle te houden en het gat in de ozonlaag te dichten.

Maar voordat ze dat doen, moeten de instituten het eens worden over hoe ze kunnen samenwerken om de internationale lappendeken van benaderingen en regelgeving om te zetten in een gezamenlijke inspanning om AI-onderzoek te verankeren.

“Bij Bletchley hebben we het Britse AI Security Institute aangekondigd – ‘s werelds eerste door de overheid gesteunde organisatie die zich inzet voor het bevorderen van AI-beveiliging voor het algemeen belang”, zei Michelle Donelan, de Britse technologiesecretaris, woensdag in Seoul. Ze wordt gecrediteerd voor het “Bletchley-effect”, dat de aanzet gaf tot de oprichting van een wereldwijd netwerk van collega’s die hetzelfde deden.

Deze instituten zullen beginnen met het delen van informatie over de modellen, hun beperkingen, mogelijkheden en risico’s, en zullen specifieke “AI-schade en veiligheidsincidenten” opsporen waar deze zich voordoen en middelen delen om het mondiale begrip van AI-beveiligingswetenschap te vergroten.

Tijdens de eerste bijeenkomst van de landen op woensdag waarschuwde Donelan dat het opzetten van het netwerk slechts de eerste stap was. ‘Wij mogen niet op onze lauweren rusten. Naarmate het tempo van de AI-ontwikkeling versnelt, moeten we die snelheid matchen met onze eigen inspanningen als we de risico’s willen beheersen en de grenzeloze mogelijkheden voor ons publiek willen benutten.”

Het Security Institute Network heeft een zware deadline. Dit najaar komen de leiders opnieuw bijeen, dit keer in Parijs, voor de eerste volledige AI-top sinds Bletchley. Als het gesprek zich wil ontwikkelen van het testen van AI-modellen naar het reguleren ervan, zullen veiligheidsinstituten moeten aantonen dat ze meester zijn in wat Donalan ‘de opkomende wetenschap van grensverleggende AI-testen en -evaluatie’ noemde.

Jack Clark, mede-oprichter en hoofd beleid bij AI-lab Anthropic, zei dat het simpelweg oprichten van een functioneel veiligheidsinstituut Groot-Brittannië “honderd mijl” verder op de weg naar veilige AI brengt dan de wereld twee jaar geleden was.

‘Ik denk dat we regeringen nu moeten aanmoedigen, zoals ik hier heb gedaan, om door te gaan met het investeren van het geld dat nodig is om veiligheidsinstituten op te zetten en deze te voorzien van voldoende technische mensen zodat ze daadwerkelijk hun eigen informatie en bewijsmateriaal kunnen creëren. ‘ zei hij. Is hij dat?

Als onderdeel van zijn investering in die wetenschap heeft Donelan £ 8,5 miljoen aan financiering aangekondigd om “baanbrekend te zijn” op het gebied van AI-veiligheidstests.

Francine Bennett, interim-directeur van het Ada Lovelace Institute, noemde de financiering een goed begin en zei dat het “de weg zou moeten vrijmaken voor een veel zinvoller programma om sociale en systeemrisico’s te begrijpen en ertegen te beschermen.

“Het is geweldig om te zien dat het Instituut voor Veiligheid en Overheid stappen zet in de richting van een bredere kijk op wat veiligheid betekent, zowel in het State of the Science-rapport als met deze financiering; we erkennen dat beveiliging niet iets is dat je adequaat kunt testen in een laboratorium”, voegde Bennett eraan toe.

De top werd bekritiseerd omdat deze belangrijke stemmen buiten het gesprek had gelaten. Er waren geen Koreaanse maatschappelijke organisaties aanwezig en het gastland was alleen vertegenwoordigd via de academische wereld, de overheid en de industrie, terwijl alleen de grootste AI-bedrijven waren uitgenodigd om deel te nemen. Roeland Decorte, voorzitter van de AI Founders Association, waarschuwde dat het risico bestond dat discussies zich ‘slechts zouden concentreren op flitsende, grootschalige modellen, waarvan er maar een paar zullen domineren, en die alleen door de grootste spelers met financieel verlies zullen worden gedomineerd. kan momenteel creëren” als resultaat.

“De vraag is uiteindelijk of we een toekomstige volwassen kunstmatige-intelligentie-economie willen reguleren en opbouwen die een duurzaam raamwerk zal creëren voor de meerderheid van de bedrijven die in die ruimte actief zijn”, voegde hij eraan toe.