Kalifornijski zakon o AI SB 1047 ima za cilj spriječiti AI katastrofe, ali Silicijumska dolina upozorava da će to uzrokovati

Ažuriranje: Kalifornijski komitet za aproprijacije usvojio je SB 1047 sa značajnim amandmanima koji mijenjaju zakon u četvrtak, 15. avgusta. O njima možete pročitati ovdje.

Izvan naučnofantastičnih filmova, nema presedana za AI sisteme koji ubijaju ljude ili se koriste u masovnim sajber napadima. Međutim, neki zakonodavci žele implementirati zaštitne mjere prije nego što loši akteri učine tu distopijsku budućnost stvarnošću. Kalifornijski zakon, poznat kao SB 1047, pokušava zaustaviti katastrofe u stvarnom svijetu uzrokovane AI sistemima prije nego što se dogode, a ide na konačno glasanje u senatu države kasnije u avgustu.

Iako se ovo čini kao cilj oko kojeg se svi možemo složiti, SB 1047 je navukao bijes velikih i malih igrača iz Silicijumske doline, uključujući rizične kapitaliste, velike tehnološke trgovinske grupe, istraživače i osnivače startupova. Mnogo računa o AI trenutno leti širom zemlje, ali kalifornijski Zakon o bezbednim i sigurnim inovacijama za granične modele veštačke inteligencije postao je jedan od najkontroverznijih. Evo zašto.

Šta bi SB 1047 uradio?

SB 1047 pokušava spriječiti korištenje velikih AI modela za nanošenje “kritične štete” čovječanstvu.

Nacrt zakona daje primjere „kritične štete“ kao loš akter koji koristi AI model da stvori oružje koje rezultira masovnim žrtvama, ili daje instrukcije da orkestrira sajber napad koji uzrokuje štetu od više od 500 miliona dolara (za poređenje, procjenjuje se nestanak CrowdStrikea prouzročio više od 5 milijardi dolara). Nacrt zakona čini programere – odnosno kompanije koje razvijaju modele – odgovornim za implementaciju dovoljnih sigurnosnih protokola kako bi se spriječili ovakvi ishodi.

Koji modeli i kompanije podliježu ovim pravilima?

Pravila SB 1047 primjenjivala bi se samo na najveće svjetske AI modele: one koji koštaju najmanje 100 miliona dolara i koriste 10^26 FLOPS-a tokom treninga – ogromnu količinu računanja, ali izvršni direktor OpenAI Sam Altman rekao je da GPT-4 košta otprilike ovoliko za obuku . Ovi pragovi se mogu povećati po potrebi.

Vrlo malo kompanija danas je razvilo javne AI proizvode dovoljno velike da zadovolje te zahtjeve, ali tehnološki divovi kao što su OpenAI, Google i Microsoft će vjerovatno uskoro. AI modeli — u suštini, masivni statistički motori koji identifikuju i predviđaju obrasce u podacima — generalno su postali precizniji kako su postajali sve veći, što mnogi očekuju da će se nastaviti. Mark Zuckerberg je nedavno rekao da će sljedeća generacija Meta’s Llame zahtijevati 10x više računanja, što bi ga stavilo pod nadležnost SB 1047.

Kada su u pitanju modeli otvorenog koda i njihovi derivati, zakon je utvrdio da je originalni programer odgovoran osim ako drugi programer ne potroši tri puta više na stvaranje derivata originalnog modela.

Predlog zakona takođe zahteva sigurnosni protokol za sprečavanje zloupotrebe pokrivenih AI proizvoda, uključujući dugme za „hitno zaustavljanje“ koje isključuje ceo AI model. Programeri takođe moraju kreirati procedure testiranja koje se bave rizicima koje predstavljaju AI modeli i moraju angažovati revizore treće strane godišnje da procene svoje bezbednosne prakse AI.

Rezultat mora biti „razumna garancija“ da će praćenje ovih protokola spriječiti kritične štete — ne apsolutnu sigurnost, koju je naravno nemoguće pružiti.

Ko bi to sproveo i kako?

Nova kalifornijska agencija, Frontier Model Division (FMD), nadgledala bi pravila. Svaki novi javni AI model koji ispunjava pragove SB 1047 mora biti pojedinačno certificiran uz pismenu kopiju svog sigurnosnog protokola.

FMD-om bi upravljao odbor od pet članova, uključujući predstavnike industrije umjetne inteligencije, zajednice otvorenog koda i akademske zajednice, kojeg bi imenovali guverner i zakonodavno tijelo Kalifornije. Odbor će savjetovati državnog tužioca Kalifornije o potencijalnim kršenjima SB 1047 i izdati smjernice programerima AI modela o sigurnosnim praksama.

Glavni tehnološki službenik programera mora dostaviti godišnju potvrdu FMD-u u kojoj procjenjuje potencijalne rizike njegovog AI modela, koliko je efikasan njegov sigurnosni protokol i opis kako se kompanija pridržava SB 1047. Slično obavještenjima o kršenju, ako se dogodi „sigurnosni incident AI ” se dogodi, programer mora to prijaviti FMD-u u roku od 72 sata od saznanja o incidentu.

Ako programer ne ispoštuje bilo koju od ovih odredbi, SB 1047 dozvoljava državnom tužiocu Kalifornije da pokrene građansku tužbu protiv programera. Za model koji košta 100 miliona dolara za obuku, kazne bi mogle dostići do 10 miliona dolara za prvi prekršaj i 30 miliona dolara za naknadne prekršaje. Ta stopa kazne se povećava kako AI modeli postaju sve skuplji.

Na kraju, zakon uključuje zaštitu uzbunjivača za zaposlene ako pokušaju da otkriju informacije o nesigurnom AI modelu glavnom tužiocu Kalifornije.

Šta kažu zagovornici?

Senator države Kalifornije Scott Wiener, koji je autor zakona i predstavlja San Francisco, kaže za TechCrunch da je SB 1047 pokušaj da se nauči iz prošlih neuspjeha politike s društvenim medijima i privatnosti podataka, te zaštiti građane prije nego što bude prekasno.

„Imamo istoriju sa tehnologijom čekanja da se dogodi šteta, a zatim kršenja ruku“, rekao je Wiener. “Nemojmo čekati da se dogodi nešto loše. Hajde da izađemo ispred toga.”

Čak i ako kompanija obuči model od 100 miliona dolara u Teksasu ili u Francuskoj, to će biti pokriveno SB 1047 sve dok posluje u Kaliforniji. Wiener kaže da je Kongres uradio „nevjerovatno malo zakona oko tehnologije u posljednjih četvrt vijeka“, tako da misli da je na Kaliforniji da ovdje postavi presedan.

Na pitanje da li se susreo sa OpenAI i Meta na SB 1047, Wiener kaže “sastali smo se sa svim velikim laboratorijama.”

Dva istraživača veštačke inteligencije koja se ponekad nazivaju “kumovima veštačke inteligencije”, Geoffrey Hinton i Yoshua Bengio, dali su svoju podršku ovom zakonu. Ova dvojica pripadaju frakciji AI zajednice koja je zabrinuta zbog opasnih scenarija sudnjeg dana koje bi tehnologija umjetne inteligencije mogla uzrokovati. Ovi „propastitelji AI“ postoje neko vrijeme u istraživačkom svijetu, a SB 1047 bi mogao kodificirati neke od njihovih preferiranih zaštitnih mjera u zakon. Druga grupa koja sponzorira SB 1047, Centar za sigurnost umjetne inteligencije, napisala je otvoreno pismo u maju 2023. tražeći od svijeta da da prioritet „ublažavanju rizika od izumiranja od AI” jednako ozbiljno kao što su pandemije ili nuklearni rat.

“Ovo je u dugoročnom interesu industrije u Kaliforniji i SAD-u općenito jer bi veliki sigurnosni incident vjerovatno bio najveća prepreka daljem napretku”, rekao je direktor Centra za AI sigurnost, Dan Hendrycks, u e-poruci upućenoj TechCrunch.

Nedavno su Hendrycksove vlastite motivacije dovedene u pitanje. U julu je javno pokrenuo startup, Grey Swan, koji gradi “alate koji pomažu kompanijama da procijene rizike svojih AI sistema”, navodi se u saopštenju za javnost. Nakon kritika da bi Hendrycksov startup mogao imati koristi ako zakon prođe, potencijalno budući da jedan od revizora SB 1047 zahtijeva od programera da se angažuju, on se odrekao svog vlasničkog udjela u Grey Swanu.

“Propustio sam da bih poslao jasan signal,” rekao je Hendrycks u e-poruci za TechCrunch. “Ako milijarder VC opozicija zdravoj sigurnosti AI želi pokazati da su njihovi motivi čisti, neka slijede njihov primjer.”

Šta kažu protivnici?

Sve veći hor igrača iz Silicijumske doline protivi se SB 1047.

Hendrycksova “milijarderska VC opozicija” se vjerovatno odnosi na a16z, kompaniju za ulaganja koju su osnovali Marc Andreessen i Ben Horowitz, koja se oštro protivila SB 1047. Početkom avgusta, glavni pravni službenik kompanije, Jaikumar Ramaswamy, poslao je pismo senatoru Wieneru , tvrdeći da će zakon “opteretiti startape zbog svojih proizvoljnih i promjenjivih pragova”, stvarajući zastrašujući efekat na AI ekosistem. Kako AI tehnologija bude napredovala, ona će postajati sve skuplja, što znači da će više startupa preći taj prag od 100 miliona dolara i da će biti pokriveni SB 1047; a16z kaže da nekoliko njihovih startupa već prima toliko za modele za obuku.

Fei-Fei Li, koju često nazivaju kumom veštačke inteligencije, prekinula je ćutanje na SB 1047 početkom avgusta, napisavši u kolumni Fortune da će zakon „naštetiti našem ekosistemu veštačke inteligencije“. Dok je Li dobro cijenjeni pionir istraživanja AI sa Stanforda, ona je također navodno u aprilu stvorila AI startup pod nazivom World Labs, procijenjen na milijardu dolara i podržan od strane a16z.

Ona se pridružuje uticajnim akademicima veštačke inteligencije, kao što je kolega istraživač sa Stanforda Endru Ng, koji je zakon nazvao „napadom na otvoreni izvor“ tokom govora na Y Combinator događaju u julu. Modeli otvorenog koda mogu stvoriti dodatni rizik za svoje kreatore, budući da se, kao i svaki otvoreni softver, lakše modificiraju i postavljaju u proizvoljne i potencijalno zlonamjerne svrhe.

Metin glavni AI naučnik, Yann LeCun, rekao je da bi SB 1047 naštetio istraživačkim naporima i da se zasniva na „iluziji ‘egzistencijalnog rizika’ koju gura šačica zabludnih istraživačkih centara,” u postu na X. Metin Llama LLM je jedan od najistaknutijih primjera LLM otvorenog koda.

Startapi također nisu zadovoljni računom. Jeremy Nixon, izvršni direktor AI startupa Omniscience i osnivač AGI House SF, centra za AI startupove u San Francisku, brine da će SB 1047 uništiti njegov ekosistem. On tvrdi da loše aktere treba kazniti za nanošenje kritične štete, a ne laboratorije AI koje otvoreno razvijaju i distribuiraju tehnologiju.

„U središtu zakona je duboka konfuzija da se LLM mogu na neki način razlikovati u svojim nivoima opasnih sposobnosti“, rekao je Nixon. “Više je nego vjerovatno, po mom mišljenju, da svi modeli imaju opasne sposobnosti kako je definirano u zakonu.”

Ali Big Tech, na koju se zakon direktno fokusira, takođe je u panici zbog SB 1047. Komora napretka – trgovačka grupa koja predstavlja Google, Apple, Amazon i druge velike tehnološke gigante – objavila je otvoreno pismo protiveći se zakonu u kojem se kaže da SB 1047 ograničava slobodu govora i “gura tehnološke inovacije iz Kalifornije”. Prošle godine, izvršni direktor Googlea Sundar Pichai i drugi tehnološki rukovodioci podržali su ideju federalne regulacije umjetne inteligencije.

Američki kongresmen Ro Khanna, koji predstavlja Silicijumsku dolinu, objavio je u utorak izjavu protiv SB 1047. Izrazio je zabrinutost da bi zakon “bio neefikasan, kažnjavajući pojedinačne preduzetnike i mala preduzeća, i naštetio kalifornijskom duhu inovacija”.

Silikonska dolina tradicionalno ne voli kada Kalifornija postavlja široku tehničku regulativu poput ove. Godine 2019. Big Tech je izvukao sličnu kartu kada je drugi državni zakon o privatnosti, kalifornijski Zakon o privatnosti potrošača, također zaprijetio da će promijeniti tehnološki krajolik. Silicijumska dolina je lobirala protiv tog zakona, a mjesecima prije nego što je stupio na snagu, osnivač Amazona Jeff Bezos i 50 drugih rukovodilaca napisali su otvoreno pismo pozivajući umjesto toga na federalni zakon o privatnosti.

Šta se dalje događa?

Dana 15. avgusta, SB 1047 će biti poslat na skupštinu Senata Kalifornije sa svim amandmanima koji budu odobreni. Prema Wiener-u, tu računi “žive ili umiru” u kalifornijskom Senatu. Očekuje se da će proći, s obzirom na njegovu dosadašnju ogromnu podršku zakonodavaca.

Anthropic je krajem jula podnio niz predloženih amandmana na SB 1047, za koje Wiener kaže da aktivno razmatraju on i politički odbori Senata Kalifornije. Anthropic je prvi programer najsavremenijeg AI modela koji je javno signalizirao da je spreman da radi sa Wienerom na SB 1047, iako ne podržava ovaj zakon. Ovo se uglavnom smatralo pobjedom zakona.

Anthropicove predložene promjene uključuju uklanjanje FMD-a, smanjenje ovlasti državnog tužioca da tuži programere umjetne inteligencije prije nego što dođe do štete, i oslobađanje od odredbe o zaštiti zviždača u SB 1047. Wiener kaže da je generalno pozitivan u pogledu amandmana, ali mu je potrebno odobrenje nekoliko Odbori za politiku Senata prije nego što ih dodaju u prijedlog zakona.

Ako SB 1047 prođe Senat, zakon će biti poslan na stol guvernera Kalifornije Gavina Newsoma gdje će on na kraju odlučiti hoće li zakon potpisati prije kraja avgusta. Wiener kaže da nije razgovarao sa Newsomom o zakonu i da ne zna njegov stav.

Ovaj nacrt zakona ne bi stupio na snagu odmah, budući da se FMD treba formirati 2026. Nadalje, ako zakon bude usvojen, vrlo je vjerovatno da će se prije toga suočiti sa pravnim izazovima, možda od strane nekih od istih grupa koje govore o to sada.

Ispravka: Ova priča se prvobitno odnosila na prethodni nacrt jezika SB 1047 o tome ko je odgovoran za fino podešene modele. Trenutno, SB 1047 kaže da je programer izvedenog modela odgovoran za model samo ako potroši tri puta više nego što je originalni programer modela potrošio na obuku.