Californië verzwakt de wet om AI-rampen te voorkomen vóór de eindstemming, op advies van Anthropic

Het Californische wetsvoorstel voor de preventie van AI-rampen, SB 1047, stuitte op aanzienlijke tegenstand van veel partijen in Silicon Valley. Vandaag hebben de wetgevers in Californië een lichte buiging gemaakt voor die druk en verschillende amendementen toegevoegd die waren voorgesteld door AI-bedrijf Anthropic en andere tegenstanders.

Donderdag werd het wetsvoorstel door de California Appropriations Committee aangenomen, een belangrijke stap in de richting van wet, met verschillende belangrijke wijzigingen, vertelde het kantoor van senator Wiener aan TechCrunch.

“We hebben een aantal zeer redelijke voorgestelde amendementen aanvaard en ik geloof dat we de belangrijkste zorgen van Anthropic en vele anderen in de sector hebben aangepakt”, zei senator Wiener in een verklaring aan TechCrunch. “Deze veranderingen bouwen voort op de significante veranderingen die ik eerder in SB 1047 heb aangebracht om tegemoet te komen aan de unieke behoeften van de open source-gemeenschap, een belangrijke bron van innovatie.”

SB 1047 is nog steeds bedoeld om te voorkomen dat grote AI-systemen veel mensen doden of cyberbeveiligingsgebeurtenissen veroorzaken die meer dan $ 500 miljoen kosten, waardoor ontwikkelaars verantwoordelijk worden gehouden. De wet geeft de Californische regering nu echter minder macht om AI-laboratoria ter verantwoording te roepen.

Wat doet SB 1047 nu?

Het meest opvallende is dat het wetsvoorstel de procureur-generaal van Californië niet langer toestaat AI-bedrijven aan te klagen wegens nalatige beveiligingspraktijken voordat zich een catastrofale gebeurtenis voordoet. Dit was een antropische suggestie.

In plaats daarvan kan de procureur-generaal van Californië een gerechtelijk bevel verzoeken, waarbij het bedrijf wordt verplicht een bepaalde operatie stop te zetten die het gevaarlijk acht, en toch de AI-ontwikkelaar kan aanklagen als zijn model een catastrofale gebeurtenis veroorzaakt.

Bovendien creëert SB 1047 niet langer de Frontier Model Division (FMD), een nieuwe overheidsinstantie die eerder in het wetsvoorstel was opgenomen. Het wetsvoorstel creëert echter nog steeds de Boundary Model Board – de kern van de MKZ – en plaatst deze binnen een bestaand operationeel overheidsagentschap. Sterker nog: het bestuur is nu groter, met negen mensen in plaats van vijf. Het Threshold Model Board zal doorgaan met het opstellen van drempelberekeningen voor de gedekte modellen, het uitvaardigen van veiligheidsrichtlijnen en het uitvaardigen van voorschriften voor auditors.

Senator Wiener wijzigde ook SB 1047, zodat AI-laboratoria niet langer verplicht zijn certificeringen van de resultaten van beveiligingstests in te dienen “op straffe van meineed”. Nu zijn deze AI-laboratoria eenvoudigweg verplicht om openbare ‘verklaringen’ af te leggen waarin hun beveiligingspraktijken worden uiteengezet, maar de wet legt niet langer enige strafrechtelijke aansprakelijkheid op.

SB 1047 bevat nu ook meer ontspannen taal over hoe ontwikkelaars ervoor zorgen dat AI-modellen veilig zijn. Nu vereist het wetsvoorstel dat ontwikkelaars “redelijke zorg” bieden dat AI-modellen geen significant risico vormen om rampen te veroorzaken, in plaats van de “redelijke zekerheid” die voorheen vereist was.

Bovendien hebben wetgevers bescherming toegevoegd voor verfijnde open source-modellen. Als iemand minder dan $10 miljoen uitgeeft aan het verfijnen van een gedekt model, beschouwt SB 1047 hem specifiek niet als een ontwikkelaar. De verantwoordelijkheid ligt nog steeds bij de oorspronkelijke, grotere ontwikkelaar van het model.

Waarom nu al die veranderingen?

Hoewel het wetsvoorstel op aanzienlijke tegenstand stuitte van Amerikaanse congresleden, gerenommeerde AI-onderzoekers, Big Tech en durfkapitalisten, werd het wetsvoorstel relatief gemakkelijk door de wetgevende macht van Californië aangenomen. Deze amendementen zullen waarschijnlijk tegenstanders van SB 1047 sussen en gouverneur Newsom een ​​minder controversieel wetsvoorstel voorleggen dat hij kan ondertekenen zonder de steun van de AI-industrie te verliezen.

Hoewel Newsom niet publiekelijk heeft gereageerd op SB 1047, heeft hij eerder aangegeven dat hij zich inzet voor de AI-innovatie in Californië.

Het is echter onwaarschijnlijk dat deze veranderingen de hardnekkige critici van SB 1047 zullen kalmeren. Hoewel het wetsvoorstel aanzienlijk zwakker is dan vóór deze wijzigingen, houdt SB 1047 ontwikkelaars nog steeds verantwoordelijk voor de gevaren van hun AI-modellen. Dat fundamentele feit over SB 1047 wordt niet universeel ondersteund, en deze amendementen doen er weinig aan om dit aan te pakken.

Slechts enkele ogenblikken nadat SB 1047 door het California Appropriations Committee was aangenomen, schreef een groep van acht leden van het Amerikaanse Congres een brief waarin gouverneur Newsom werd gevraagd een veto uit te spreken over SB 1047. Het schrijven van het wetsvoorstel “zou om te beginnen niet goed zijn voor onze staat – voor de gemeenschap, voor wetenschappelijke ontwikkeling, of zelfs om te beschermen tegen mogelijke schade die gepaard gaat met de ontwikkeling van AI.”

Wat is het volgende?

SB 1047 gaat nu naar de California Assembly voor een eindstemming. Als het daar wordt aangenomen, zal het terug moeten naar de Senaat van Californië voor een stemming over deze laatste amendementen. Als beide worden goedgekeurd, gaat het naar het bureau van gouverneur Newsom, waar een veto kan worden uitgesproken of een wet kan worden ondertekend.