De California State Assembly heeft een uitgebreide AI-veiligheidswet aangenomen

De California State Assembly heeft de Safe and Secure Innovations for Frontier Models of Artificial Intelligence Act (SB 1047) aangenomen, Reuters rapporten. De wet is een van de eerste belangrijke AI-regelgeving in de VS.

Het wetsvoorstel, dat een broeinest van debat is geweest in Silicon Valley en daarbuiten, zou AI-bedrijven die in Californië actief zijn, verplichten een aantal voorzorgsmaatregelen te nemen voordat ze een geavanceerd basismodel kunnen opzetten. Dit omvat onder meer het mogelijk maken van een snelle en volledige uitschakeling van het model, het waarborgen dat het model wordt beschermd tegen “onveilige aanpassingen na de training” en het handhaven van een testprocedure om te beoordelen of het model of zijn afgeleiden een bijzonder risico lopen op “het veroorzaken of mogelijk maken van kritieke schade”. .”

Senator Scott Wiener, de hoofdauteur van het wetsvoorstel, zei dat SB 1047 een zeer verstandig wetsvoorstel is dat van grote AI-laboratoria vereist dat ze doen wat ze al hebben beloofd: hun grote modellen testen op catastrofale veiligheidsrisico’s. “We hebben het hele jaar hard gewerkt, samen met voorstanders van open source, Anthropic en anderen, om de wet te verfijnen en te verbeteren. SB 1047 is goed afgestemd op wat we weten over de voorzienbare risico’s van AI en verdient het om te worden aangenomen.”

Critici van SB 1047 – waaronder OpenAI en Anthropic, politici Zoe Lofgren en Nancy Pelosi, en de California Chamber of Commerce – voerden aan dat het zich te veel concentreerde op catastrofale schade en kleine open-source AI-ontwikkelaars onnodig zou kunnen schaden. Het wetsontwerp werd als reactie daarop gewijzigd, waarbij potentiële strafrechtelijke sancties werden vervangen door civielrechtelijke sancties, de handhavingsbevoegdheden van de procureur-generaal van Californië werden ingeperkt en de vereisten werden aangepast om lid te kunnen worden van de “Boundary Model Board”, die krachtens de wet werd opgericht.

Nadat de Senaat over het gewijzigde wetsontwerp heeft gestemd – een stemming die naar verwachting zal worden aangenomen – zal de AI-veiligheidswet naar gouverneur Gavin Newsom gaan, die volgens hem tot eind september de tijd heeft om over zijn lot te beslissen. De New York Times.

Anthropic weigerde commentaar te geven, behalve door te verwijzen naar een brief die CEO Dario Amodei van Anthropic vorige week naar gouverneur Newsom stuurde. OpenAI weigerde commentaar te geven en wees op een brief die OpenAI Chief Strategy Officer Jason Kwon vorige week ook naar senator Wiener stuurde.

Update, 28 augustus: OpenAI weigerde commentaar te geven.