Vier lessen uit 2023 die ons vertellen waar de AI-regulering naartoe gaat

Meer in het algemeen zullen we waarschijnlijk zien dat de strategieën die vorig jaar naar voren zijn gekomen, worden voortgezet, uitgebreid en ten uitvoer worden gelegd. Op grond van het uitvoerend bevel van president Biden kunnen verschillende Amerikaanse overheidsinstanties bijvoorbeeld nieuwe best practices uitstippelen, maar AI-bedrijven in staat stellen zichzelf te controleren. En aan de andere kant zullen bedrijven en toezichthouders beginnen te worstelen met de Europese Wet op de Kunstmatige Intelligentie en de risicogebaseerde aanpak daarvan. Het zal zeker niet naadloos zijn, en er zal zeker veel discussie zijn over hoe deze nieuwe wetten en beleidsmaatregelen in de praktijk daadwerkelijk werken.

Terwijl ik dit artikel schreef, heb ik even de tijd genomen om na te denken over hoe we hier terecht zijn gekomen. Ik denk dat verhalen over de opkomst van technologieën de moeite waard zijn om over na te denken; ze kunnen ons helpen beter te begrijpen wat er daarna zou kunnen gebeuren. En als verslaggever heb ik in de loop van de tijd patronen in deze verhalen zien ontstaan ​​– of het nu gaat om blockchain, sociale media, zelfrijdende auto’s of welke andere snel evoluerende, wereldveranderende innovatie dan ook. Technologie heeft de neiging veel sneller te evolueren dan regelgeving, en wetgevers worden steeds meer uitgedaagd om gelijke tred te houden met de technologie zelf en tegelijkertijd nieuwe manieren te bedenken om duurzame, toekomstbestendige wetten te maken.

Als ik specifiek aan de VS denk, weet ik niet zeker of wat we tot nu toe meemaken ongekend is, hoewel de snelheid waarmee generatieve AI ons leven is binnengekomen zeker verrassend is geweest. Vorig jaar werd de AI-politiek gekenmerkt door machtsbewegingen van Big Tech, vooruitgang in het Congres en tweepartijenpolitiek (althans op dit gebied!), geopolitieke concurrentie en de snelle inzet van opkomende technologieën.

Dus wat hebben we geleerd? En wat is er om de hoek? Er is zoveel dat je moet proberen op de hoogte te blijven op het gebied van de politiek, maar ik heb wat je moet weten opgesplitst in vier dingen.

1. De VS zijn niet van plan grote technologieën aan zich te binden. Maar de wetgevers Doen ze zijn van plan de kunstmatige-intelligentie-industrie erbij te betrekken.

OpenAI CEO Sam Altman begon afgelopen mei voor het eerst aan zijn tournee door het Congres, zes maanden na de lancering van ChatGPT. Hij ontmoette wetgevers tijdens privédiners en getuigde over de existentiële bedreigingen die zijn eigen technologie voor de mensheid zou kunnen vormen. In veel opzichten zette dit de toon voor de manier waarop we in de VS over AI praten, en het werd gevolgd door de toespraak van Biden over AI, AI-inzichtforums in het Congres om wetgevers te helpen navigeren, en de release van meer grote taalmodellen. (Met name de gastenlijst voor deze AI-inzichtforums is sterk scheefgetrokken in de branche.)

Toen Amerikaanse wetgevers zich bewust begonnen te worden van kunstmatige intelligentie, werd het een zeldzaam (zij het klein) gebied van tweeledigheid op de Hill, waarbij wetgevers van beide partijen aandrongen op meer vangrails rond de technologie. Tegelijkertijd is de activiteit op staatsniveau en bij de rechtbanken toegenomen, vooral op het gebied van gebruikersbescherming, zoals leeftijdsverificatie en contentmoderatie.

Zoals ik in het verhaal schreef: “Door deze activiteit is er een Amerikaans AI-beleid ontstaan: een beleid dat vriendelijk is voor de AI-industrie, met de nadruk op best practices, een afhankelijkheid van verschillende instanties om hun eigen regels te creëren, en een genuanceerde aanpak door een andere regulering van elke sector van de economie.” Het culmineerde allemaal in het uitvoerend bevel van Biden eind oktober, waarin een gedistribueerde benadering van het AI-beleid werd geschetst, waarbij verschillende instanties hun eigen regels creëren. Het zal (misschien niet verrassend) sterk afhankelijk zijn van aankopen door AI-bedrijven.