Van sciencefiction tot staatswet: het plan van Californië om een ​​AI-ramp te voorkomen

De hoofdstad van Californië in Sacramento.
Toename / Het Capitoolgebouw van Californië in Sacramento.

De Californische ‘Safe and Secure Innovations for Frontier Artificial Intelligence Models Act’ (ook bekend als SB-1047) heeft voor veel krantenkoppen en debat gezorgd over de algemene ‘veiligheid’ van grootschalige AI-modellen. Maar critici zijn bezorgd dat de overdreven nadruk die de wet legt op de existentiële bedreigingen van toekomstige AI-modellen onderzoek en ontwikkeling voor de meer prozaïsche, niet-bedreigende toepassingen van AI van vandaag ernstig zou kunnen beperken.

SB-1047, geïntroduceerd door senator Scott Wiener, werd in mei met 32-1 door de Senaat van Californië aangenomen en lijkt goed gepositioneerd voor een eindstemming in de State Assembly in augustus. De tekst van het wetsvoorstel vereist dat de bedrijven achter AI-modellen die groot genoeg zijn (momenteel vastgesteld op 100 miljoen dollar aan trainingskosten en de ruwe rekenkracht die deze kosten vandaag de dag met zich meebrengen) testprocedures en -systemen opzetten om ‘veiligheidsincidenten’ te voorkomen en erop te reageren.

Het wetsvoorstel bevat een legalistische definitie van die veiligheidsincidenten, die zich op zijn beurt richt op het definiëren van de reeks ‘kritieke schade’ die een AI-systeem mogelijk zou kunnen maken. Deze omvatten schade die leidt tot ‘massale slachtoffers of schade van minstens 500 miljoen dollar’, zoals ‘de creatie of het gebruik van chemische, biologische, radiologische of nucleaire wapens’ (hallo, Skynet?) of ‘precieze instructies voor het uitvoeren van een cyberaanval. Het wetsvoorstel zinspeelt ook op “andere ernstige schade aan de openbare veiligheid en beveiliging van vergelijkbare ernst” als de expliciet genoemde.

De maker van een AI-model kan niet verantwoordelijk worden gehouden voor schade veroorzaakt door het delen van “openbaar beschikbare” informatie buiten het model – vraag LLM eenvoudigweg om een ​​samenvatting Het kookboek van de anarchist het zou bijvoorbeeld waarschijnlijk niet de wet overtreden. In plaats daarvan lijkt het wetsvoorstel het meest zorgwekkend te zijn de toekomst AI die ‘nieuwe bedreigingen voor de openbare veiligheid en beveiliging’ zou kunnen opleveren. Meer dan een mens die AI gebruikt om schadelijke ideeën te bedenken, richt SB-1047 zich op het idee dat AI “autonoom gedrag vertoont dat niet op verzoek van de gebruiker is” terwijl het opereert “met beperkt menselijk toezicht, tussenkomst of supervisie.”

Zou de nieuwe wet van Californië WOPR stoppen?
Toename / Zou de nieuwe wet van Californië WOPR stoppen?

Om dit gekke sci-fi-geval te voorkomen, moet iedereen die een model traint dat groot genoeg is, “de mogelijkheid implementeren om snel een volledige shutdown te implementeren” en regels hebben over wanneer een dergelijke shutdown zal worden uitgevoerd, naast andere voorzorgsmaatregelen en tests. Het wetsvoorstel richt zich ook op AI-acties die ‘opzet, roekeloosheid of grove nalatigheid’ vereisen als ze door een mens worden uitgevoerd, wat een mate van keuzevrijheid suggereert die niet bestaat in de huidige grote taalmodellen.

AI-moordenaarsaanval?

Deze formulering in het wetsvoorstel weerspiegelt waarschijnlijk de bijzondere angsten van de oorspronkelijke auteur, mede-oprichter van Center for AI Security (CAIS), Dan Hendrycks. In een artikel in Time Magazine uit 2023 voert Hendrycks een maximalistisch existentieel argument aan dat “evolutionaire druk AI waarschijnlijk zal verankeren in gedrag dat zelfbehoud bevordert” en zal leiden tot “een pad naar verplaatsing als de dominante soort op aarde.”

Als Hendrycks gelijk heeft, lijkt wetgeving als SB-1047 een voorzorgsmaatregel die op gezond verstand berust – en misschien gaat deze zelfs niet ver genoeg. Voorstanders van het wetsvoorstel, waaronder AI-grootheden Geoffrey Hinton en Yoshua Bengio, zijn het eens met de bewering van Hendrycks dat het wetsvoorstel een noodzakelijke stap is om potentieel catastrofale schade door geavanceerde AI-systemen te voorkomen.

“AI-systemen die een bepaald capaciteitsniveau overschrijden, kunnen aanzienlijke risico’s met zich meebrengen voor de democratie en de openbare veiligheid”, schreef Bengio in de bijlage bij het wetsvoorstel. “Ze moeten daarom goed worden getest en aan passende waarborgen worden onderworpen. Dit wetsvoorstel biedt een praktische aanpak om dit te bereiken en is een belangrijke stap in de richting van de vereisten die ik aan wetgevers heb aanbevolen.”

“Als we hier machtszoekend gedrag zien, gaat het niet om AI-systemen, maar om AI-fouten.

Technisch beleidsdeskundige dr. Nirit Weiss-Blatt

Maar critici beweren dat AI-beleid niet gedreven mag worden door een vreemde angst voor toekomstige systemen die meer op science fiction lijken dan op de huidige technologie. “SB-1047 is oorspronkelijk opgesteld door non-profitorganisaties die geloven in het einde van de wereld met een bewuste machine, zoals het Center for the Safety of Artificial Intelligence van Dan Hendrycks”, vertelde Daniel Jeffries, een prominente woordvoerder van de AI-gemeenschap. Ars. “Je kunt niet vanuit dit uitgangspunt beginnen en een solide, gezond, ‘lichtgevoelig’ beveiligingsaccount creëren.”

“Als we hier machtszoekend gedrag zien, gaat het niet om AI-systemen, maar om AI-fouten”, aldus technologiebeleidsdeskundige Nirit Weiss-Blatt. “Met hun verzonnen angsten proberen ze fictieve wetgeving tot stand te brengen, die volgens veel AI-experts en voorstanders van open source de technologische voorsprong van Californië en de VS zou kunnen vernietigen.”