Eerste bedrijven ondertekenen AI-beveiligingsnormen voorafgaand aan de top in Seoel | Kunstmatige intelligentie (AI)

De eerste zestien bedrijven hebben zich aangesloten bij de vrijwillige AI-veiligheidsnormen die op de Bletchley Park-top zijn geïntroduceerd, zei Rishi Sunak voorafgaand aan de hervatting van het evenement in Seoul.

Maar de standaarden zijn bekritiseerd vanwege gebrek aan tanden, waarbij de ondertekenaars hebben beloofd alleen vrijwillig te ‘werken aan’ het delen van informatie, te ‘investeren’ in cyberveiligheid en ‘prioriteit te geven’ aan onderzoek naar sociale risico’s.

“Deze toezeggingen zorgen ervoor dat ‘s werelds toonaangevende AI-bedrijven transparantie en verantwoording zullen garanderen in hun plannen om veilige AI te ontwikkelen”, aldus Sunak. “Het schept een precedent voor mondiale AI-beveiligingsnormen die de voordelen van deze transformatieve technologie zullen ontsluiten.”

Onder de 16 bevonden zich Zhipu.ai uit China en het Instituut voor Technologische Innovatie van de Verenigde Arabische Emiraten. De aanwezigheid van ondertekenaars uit landen die minder bereid zijn geweest om nationale kampioenen te binden aan veiligheidsregels is een voordeel van een lichtere aanpak, zegt de regering.

De Britse technologiesecretaris, Michelle Donovan, zei dat het evenement in Seoul “echt voortbouwt op het werk dat we bij Bletchley hebben gedaan en het ‘Bletchley-effect’ dat we daarna hebben gecreëerd. Het heeft inderdaad een rimpeleffect gehad waardoor AI en AI-beveiliging op de agenda van veel landen terecht zijn gekomen. We zagen dit toen landen bijvoorbeeld naar voren kwamen met plannen om hun eigen AI-beveiligingsinstituten op te richten.

“En wat we in Seoul hebben bereikt, is dat we het gesprek echt hebben uitgebreid. We hebben een verzameling van over de hele wereld, waaruit blijkt dat dit proces bedrijven echt aanmoedigt, niet alleen in bepaalde landen maar in alle delen van de wereld om dit probleem echt aan te pakken.”

Maar hoe langer de codes vrijwillig blijven, hoe groter het risico dat AI-bedrijven ze simpelweg zullen negeren, waarschuwde Fran Bennett, interim-directeur van het Ada Lovelace Institute.

“Mensen die nadenken en praten over veiligheid en beveiliging, dat is allemaal goed. Dat geldt ook voor de verzekering van aansprakelijkheden van bedrijven uit andere landen, vooral China en de VAE. Maar bedrijven die bepalen wat veilig en gevaarlijk is en vrijwillig kiezen wat ze eraan doen, dat is problematisch.

“Het is geweldig om na te denken over veiligheid en het vaststellen van normen, maar nu heb je daar tanden voor nodig: je hebt regelgeving nodig en je hebt een aantal instellingen nodig die de grens kunnen trekken vanuit het perspectief van de getroffen mensen, niet vanuit het perspectief van de bedrijven die dat doen. bouw dingen. “

sla de nieuwsbriefpromotie over

Later op dinsdag zal Sunak samen met de Zuid-Koreaanse president Yoon Suk Yeol een virtuele bijeenkomst van wereldleiders over ‘innovatie en inclusiviteit’ op het gebied van AI voorzitten.