Open source AI is uniek gevaarlijk

Dit is een gastpost. De hier weergegeven standpunten zijn uitsluitend die van de auteur en vertegenwoordigen niet de standpunten IEEE-spectrum of IEEE.

Als mensen tegenwoordig aan AI-toepassingen denken, denken ze waarschijnlijk aan ‘closed source’ AI-toepassingen zoals OpenAI ChatGPT, waarbij de software van het systeem veilig wordt bewaard door de fabrikant en een beperkt aantal doorgelichte partners. Dagelijkse gebruikers communiceren met deze systemen via een webinterface zoals een chatbot, en zakelijke gebruikers hebben toegang tot een application programming interface (API) waarmee ze een AI-systeem in hun applicaties of workflows kunnen inbedden. Het allerbelangrijkste is dat deze toepassingen het bedrijf dat eigenaar is van het model in staat stellen er toegang toe te bieden als een service, terwijl de onderliggende software veilig blijft. Het publiek heeft minder begrip voor de snelle en ongecontroleerde introductie van krachtige, onbeschermde (ook wel open-source) AI-systemen.

Een goede eerste stap om de bedreigingen van onbeschermde AI te begrijpen, is door beschermde AI-systemen zoals ChatGPT, Bard of Claude te vragen zich te misdragen.

De merknaam OpenAI draagt ​​bij aan de verwarring. Hoewel het bedrijf oorspronkelijk werd opgericht om een ​​open-source AI-systeem te produceren, besloten de leiders in 2019 dat het te riskant was om door te gaan met het vrijgeven van de broncode en modelgewichten van het GPT-systeem (een numerieke weergave van de relaties tussen knooppunten in zijn kunstmatige neuraal netwerk). ) voor het publiek. OpenAI maakt zich zorgen omdat deze kunstmatige intelligentiesystemen die tekst genereren, kunnen worden gebruikt om enorme hoeveelheden goedgeschreven maar verkeerde of giftige inhoud te genereren.

Bedrijven, waaronder Meta (mijn voormalige werkgever) zijn de tegenovergestelde richting ingeslagen en hebben ervoor gekozen krachtige AI-systemen vrij te geven in naam van het democratiseren van de toegang tot AI. Andere voorbeelden van bedrijven die onbeveiligde AI-systemen vrijgeven zijn Stability AI, Hugging Face, Mistral, EleutherAI en het Institute for Technological Innovation. Deze bedrijven en gelijkgestemde belangengroepen hebben beperkte vooruitgang geboekt bij het verkrijgen van vrijstellingen voor een aantal onbeveiligde modellen in de AI-wet van de Europese Unie, die is ontworpen om de risico’s van krachtige AI-systemen te verminderen. Ze kunnen in de Verenigde Staten soortgelijke vrijstellingen aanvragen via een openbare commentaarperiode die onlangs is vastgelegd in de Executive Order on AI van het Witte Huis.

Ik denk dat de open source-beweging een belangrijke rol kan spelen in AI. Omdat technologie zoveel nieuwe mogelijkheden met zich meebrengt, is het belangrijk dat geen enkele entiteit als poortwachter voor het gebruik van technologie fungeert. Zoals de zaken er nu voor staan, vormt onbeveiligde kunstmatige intelligentie echter een enorm risico dat we nog niet kunnen beheersen.

Inzicht in de dreiging van kwetsbare kunstmatige intelligentie

Een goede eerste stap om de bedreigingen van onbeschermde AI te begrijpen, is door beschermde AI-systemen zoals ChatGPT, Bard te vragen, of Claude zich misdraagt. Je kunt ze vragen een dodelijker coronavirus te ontwerpen, instructies te geven voor het maken van een bom, naaktfoto’s te maken van hun favoriete acteur, of een reeks opruiende sms-berichten te schrijven die bedoeld zijn om kiezers in verschillende staten boos te maken over immigratie. U zult waarschijnlijk beleefde afwijzingen krijgen voor dergelijke verzoeken, omdat ze in strijd zijn met de gebruiksregels van deze AI-systemen. Ja, het is mogelijk om deze AI-systemen te ‘hacken’ en ze zich te laten misdragen, maar zodra deze kwetsbaarheden worden ontdekt, kunnen ze worden verholpen.

Voer niet-geleverde modellen in. De bekendste is Meta’s Llama 2. Het werd uitgebracht door Meta met een 27 pagina’s tellende “Guide to Responsible Use”, die prompt werd genegeerd door de makers van “Llama 2 Uncensored”, een afgeleid model waarvan de beveiligingsfuncties zijn verwijderd en gratis wordt gehost downloaden in de Hugging Face AI-repository. Zodra iemand een ‘ongecensureerde’ versie van een onbeveiligd AI-systeem uitbrengt, is de oorspronkelijke systeemontwikkelaar over het algemeen machteloos om er iets aan te doen.

Zoals de zaken er nu voor staan, vormt onbeveiligde kunstmatige intelligentie een enorm risico dat we nog niet kunnen beheersen.

De dreiging die uitgaat van onbeschermde AI-systemen schuilt in het gemak waarmee misbruik kan worden gemaakt. Ze zijn bijzonder gevaarlijk in de handen van geavanceerde dreigingsactoren, die gemakkelijk de originele versies van deze AI-systemen kunnen downloaden en de beveiligingsfuncties ervan kunnen uitschakelen, en vervolgens hun eigen aangepaste versies kunnen maken en deze kunnen misbruiken voor een breed scala aan taken. Bij sommige misbruiken van onbeschermde AI-systemen gaat het ook om het exploiteren van kwetsbare distributiekanalen, zoals sociale media en berichtenplatforms. Deze platforms kunnen door AI gegenereerde inhoud nog steeds niet accuraat op grote schaal detecteren en kunnen worden gebruikt om enorme hoeveelheden gepersonaliseerde desinformatie en uiteraard fraude te verspreiden. Dit zou rampzalige gevolgen kunnen hebben voor het informatie-ecosysteem, en vooral voor de verkiezingen. Zeer schadelijke deepfake-pornografie zonder toestemming is een ander domein waarop onbeveiligde AI diepgaande negatieve gevolgen kan hebben.

Onbeveiligde AI heeft ook het potentieel om de productie van gevaarlijke materialen, zoals biologische en chemische wapens, te vergemakkelijken. Het uitvoeringsbesluit van het Witte Huis vermeldt chemische, biologische, radiologische en nucleaire (CBRN) risico’s, en het Amerikaanse Congres overweegt nu meerdere wetsvoorstellen om deze bedreigingen aan te pakken.

Aanbevelingen voor AI-regelgeving

We hoeven niet-beveiligde AI niet specifiek te reguleren; bijna alle regelgeving die publiekelijk is besproken, is ook van toepassing op beveiligde AI-systemen. Het enige verschil is dat het voor ontwikkelaars van veilige AI-systemen veel gemakkelijker is om aan deze regelgeving te voldoen vanwege de eigenschappen van veilige en onbeveiligde AI. Entiteiten die beschermde AI-systemen exploiteren, kunnen misbruik of storingen in hun systemen actief monitoren (inclusief vooringenomenheid en de productie van gevaarlijke of aanstootgevende inhoud) en regelmatig updates publiceren die hun systemen eerlijker en veiliger maken.

“Ik denk dat de manier waarop we open source AI reguleren de belangrijkste kwestie op korte termijn is.”
—Gary Marcus, Universiteit van New York

Bijna alle hieronder aanbevolen regelgeving is van toepassing op alle AI-systemen. De implementatie van deze regelgeving zou bedrijven ertoe aanzetten twee keer na te denken voordat ze onbeveiligde AI-systemen vrijgeven die rijp zijn voor misbruik.

Regelgevende maatregelen voor AI-systemen

  1. Pauzeer alle nieuwe releases onveilige AI-systemen totdat ontwikkelaars aan de onderstaande vereisten voldoen en op een manier die ervoor zorgt dat beveiligingsfuncties niet gemakkelijk door slechte actoren kunnen worden verwijderd.
  2. Opzetten van registratie en licenties (zowel met terugwerkende kracht als doorlopend) van alle AI-systemen boven een bepaalde capaciteitsdrempel.
  3. Creëer verantwoordelijkheid wegens “redelijkerwijs te voorzien misbruik” en nalatigheid: Ontwikkelaars van AI-systemen moeten wettelijk aansprakelijk zijn voor schade die wordt toegebracht aan zowel individuen als de samenleving.
  4. Opzetten van risicobeoordeling, risicobeperking en onafhankelijke audit procedures voor AI-systemen die de bovengenoemde drempel overschrijden.
  5. Vereist watermerk en herkomst best practices, zodat door AI gegenereerde inhoud duidelijk wordt gelabeld en authentieke inhoud metagegevens heeft waarmee gebruikers de oorsprong ervan kunnen begrijpen.
  6. Transparantie van trainingsgegevens vereisen en verbied trainingssystemen op het gebied van persoonlijke informatie, inhoud die is ontworpen om haatzaaiende inhoud te genereren, en inhoud die verband houdt met biologische en chemische wapens.
  7. Vraag en financier toegang tot een onafhankelijke onderzoekerdoorgelichte onderzoekers en maatschappelijke organisaties voorafgaand aan de implementatie toegang te geven tot generatieve AI-systemen voor onderzoek en testen.
  8. Vereisen ‘ken uw klant’-procedures.vergelijkbaar met die welke door financiële instellingen worden gebruikt, om krachtige hardware en clouddiensten te verkopen die zijn ontworpen om kunstmatige intelligentie te gebruiken; de verkoop beperken op dezelfde manier waarop de verkoop van wapens zou worden beperkt.
  9. Verplichte openbaarmaking van incidenten: Wanneer ontwikkelaars zich bewust worden van kwetsbaarheden of storingen in hun AI-systemen, zijn ze wettelijk verplicht dit te melden aan de bevoegde overheidsinstantie.

Regelgevende maatregelen voor distributiekanalen en aanvalsoppervlakken

  1. Vereist implementatie van inhoudsreferenties voor sociale media, waardoor bedrijven een deadline krijgen om de standaard voor het markeren van inhoud van C2PA te implementeren.
  2. Automatiseer digitale handtekeningen zodat mensen snel hun door mensen gegenereerde inhoud kunnen bekijken.
  3. Beperk het bereik van door AI gegenereerde inhoud: Voor accounts die niet zijn geverifieerd als distributeurs van door mensen gegenereerde inhoud, zijn mogelijk bepaalde functies uitgeschakeld, waaronder virale distributie van hun inhoud.
  4. Verminder chemische, biologische, radiologische en nucleaire risico’s door alle leveranciers van op maat gemaakte nucleïnezuren of andere potentieel gevaarlijke stoffen voor te lichten over de beste praktijken.

Overheidsactie

  1. Zet een wendbaar toezichthoudend orgaan op die snel kunnen handelen en bepaalde implementatiecriteria kunnen implementeren en bijwerken. Deze entiteit zou de bevoegdheid hebben om risicobeoordelingen, risicobeperkingen en auditresultaten goed te keuren of af te wijzen en zou de bevoegdheid hebben om de toepassing van het model te blokkeren.
  2. Ondersteun organisaties die feiten controleren en groepen uit het maatschappelijk middenveld (inclusief ‘vertrouwde betekenaars’ zoals gedefinieerd in de EU Digital Services Act) en vereisen dat generatieve AI-bedrijven rechtstreeks met deze groepen samenwerken.
  3. Internationaal samenwerken met als doel uiteindelijk een internationaal verdrag of een nieuw internationaal agentschap te creëren dat zou voorkomen dat bedrijven deze regelgeving omzeilen. De recente Bletchley-verklaring werd ondertekend door 28 landen, waaronder de thuislanden van alle toonaangevende AI-bedrijven ter wereld (Verenigde Staten, China, Verenigd Koninkrijk, Verenigde Arabische Emiraten, Frankrijk en Duitsland); deze verklaring schetste gedeelde waarden en zette de koers uit voor extra bijeenkomsten.
  4. Democratiseer de toegang tot AI met publieke infrastructuur: Een algemene zorg bij het reguleren van AI is dat het aantal bedrijven dat ingewikkelde AI-systemen kan produceren, zal worden beperkt tot een klein aantal en zal neigen naar monopolistische bedrijfspraktijken. Er zijn echter veel mogelijkheden om de toegang tot AI te democratiseren zonder afhankelijk te zijn van onveilige AI-systemen. Eén daarvan is het creëren van een publieke AI-infrastructuur met krachtige eigen AI-modellen.

“Ik denk dat hoe we open source AI reguleren de belangrijkste open vraag in de nabije toekomst is”, vertelde Gary Marcus, cognitief wetenschapper, ondernemer en emeritus hoogleraar aan de New York University, mij in een recente e-mailuitwisseling.

Daar ben ik het mee eens, en deze aanbevelingen zijn nog maar het begin. De implementatie ervan zou in eerste instantie duur zijn en zou van toezichthouders vereisen dat ze bepaalde machtige lobbyisten en ontwikkelaars tevreden stellen.

Helaas is het, gezien de slecht op elkaar afgestemde prikkels in de huidige AI- en informatie-ecosystemen, onwaarschijnlijk dat de industrie deze acties zal ondernemen, tenzij ze daartoe wordt gedwongen. Als deze maatregelen niet worden genomen, kunnen bedrijven die onbeschermde kunstmatige intelligentie produceren miljarden dollars aan winst maken, terwijl ze de risico’s van hun producten op ons allemaal afwentelen.

Uit artikelen op uw website

Gerelateerde artikelen op internet