De CEO van OpenAI zegt dat de Californische AI-veiligheidswet de vooruitgang zou kunnen vertragen

In een nieuwe brief dringt Jason Kwon, hoofd strategie van OpenAI, erop aan dat AI-regulering aan de federale overheid moet worden overgelaten. Zoals eerder gemeld BloombergKwon zegt dat een nieuwe AI-veiligheidswet die in Californië wordt overwogen de voortgang zou kunnen vertragen en ertoe zou kunnen leiden dat bedrijven de staat verlaten.

Een federaal gestuurd pakket AI-beleid, in plaats van een lappendeken van staatswetten, zal innovatie stimuleren en de VS positioneren om leiding te geven aan de ontwikkeling van mondiale normen. Als gevolg hiervan sluiten we ons aan bij andere AI-laboratoria, ontwikkelaars, experts en leden van de congresdelegatie van Californië in ons respectvolle verzet tegen SB 1047 en verwelkomen we de mogelijkheid om enkele van onze belangrijkste zorgen te uiten.

De brief was gericht aan de Californische senator Scott Wiener, die oorspronkelijk SB 1047 introduceerde, ook bekend als de Safe and Secure Innovations for Frontier Models of Artificial Intelligence Act.

Volgens voorstanders als Wiener stelt het normen vast voordat krachtigere AI-modellen worden ontwikkeld, vereist het voorzorgsmaatregelen zoals veiligheidstests voorafgaand aan de implementatie en andere waarborgen, voegt het klokkenluidersbescherming toe voor medewerkers van AI-laboratoria, geeft het de procureur-generaal van Californië de bevoegdheid om juridische stappen te ondernemen als AI brengt de schade in kaart en roept op tot de oprichting van een ‘openbaar cloud computing-cluster’ genaamd CalCompute.

In een reactie op de brief die woensdagavond werd vrijgegeven, wees Wiener erop dat de voorgestelde vereisten van toepassing zijn op elk bedrijf dat zaken doet in Californië, ongeacht of het hoofdkantoor in de staat is gevestigd of niet, dus het argument “slaat nergens op.” Hij schrijft ook dat OpenAI “…geen enkele wetsbepaling bekritiseert” en concludeert: “SB 1047 is een zeer redelijk wetsvoorstel dat van de grote AI-laboratoria verlangt dat ze doen waartoe ze zich al hebben verplicht, namelijk. , testen hun grote modellen op catastrofale veiligheidsrisico’s.”

Het wetsvoorstel wacht momenteel op de definitieve stemming voordat het naar het bureau van gouverneur Gavin Newsom gaat.

Hier is de OpenAI-brief in zijn geheel: