De EU-wet inzake kunstmatige intelligentie is nu van kracht

Het is officieel: de op risico gebaseerde regelgeving van de Europese Unie voor de toepassing van kunstmatige intelligentie is op donderdag 1 augustus 2024 in werking getreden.

Hiermee wordt de klok gezet voor een reeks gefaseerde nalevingsdeadlines die de wet zal toepassen op verschillende soorten AI-ontwikkelaars en -applicaties. De meeste bepalingen zullen medio 2026 volledig ten uitvoer zijn gelegd. Maar de eerste deadline, die een verbod oplegt op een klein aantal verboden toepassingen van kunstmatige intelligentie in bepaalde contexten, zoals het gebruik van biometrische gegevens op afstand door wetshandhavers op openbare plaatsen, zal over slechts zes maanden van kracht zijn.

Volgens de aanpak van het blok worden de meeste AI-toepassingen als laag/geen risico beschouwd en vallen ze dus helemaal niet onder de regelgeving.

Een deel van de potentiële toepassingen van AI wordt geclassificeerd als risicovol, zoals biometrie en gezichtsherkenning, of AI die wordt gebruikt in domeinen zoals onderwijs en werkgelegenheid. De systemen die op deze gebieden worden gebruikt, zullen in de EU-databank moeten worden geregistreerd, en de ontwikkelaars ervan zullen ervoor moeten zorgen dat de verplichtingen op het gebied van risico- en kwaliteitsbeheer worden nageleefd.

Het derde niveau van ‘beperkt risico’ heeft betrekking op AI-technologieën zoals chatbots of tools die kunnen worden gebruikt om deepfakes te produceren. Ze zullen aan een aantal transparantievereisten moeten voldoen om ervoor te zorgen dat gebruikers niet worden misleid.

Een ander belangrijk onderdeel van de wet gaat over ontwikkelaars van zogenoemde General Purpose AI (GPAI). Opnieuw heeft de EU gekozen voor een risicogebaseerde aanpak, waarbij de meeste GPAI-ontwikkelaars te maken hebben met lichte transparantie-eisen. Er wordt verwacht dat slechts een subset van de krachtigste modellen risicobeoordelings- en mitigatiemaatregelen zal nemen.

Wat GPAI-ontwikkelaars precies moeten doen om aan de AI-wet te voldoen, staat nog ter discussie, aangezien er nog praktijkcodes moeten worden opgesteld. Eerder deze week lanceerde het Office of Artificial Intelligence, het orgaan voor strategisch toezicht en het opbouwen van het kunstmatige intelligentie-ecosysteem, een consultatie en riep op tot deelname aan dit regelgevingsproces, waarbij het zei dat het verwacht dat de codes in april 2025 zullen worden afgerond.

In zijn eigen hoofdartikel voor de AI-wet eind vorige maand schreef OpenAI, de maker van het grote taal-GPT-model dat ChatGPT ondersteunt, dat het verwacht “nauw samen te werken met het EU-Bureau voor Kunstmatige Intelligentie en andere relevante autoriteiten als de nieuwe De wet wordt de komende maanden geïmplementeerd.” Dit omvat het samenstellen van technische documentatie en andere richtlijnen voor downstream-leveranciers en gebruikers van hun GPAI-modellen.

“Als jouw organisatie probeert te bepalen hoe ze aan de AI-wet moet voldoen, moet je eerst proberen alle AI-systemen die binnen de reikwijdte vallen, te classificeren. Identificeer welke GPAI en andere AI-systemen u gebruikt, bepaal hoe ze zijn geclassificeerd en overweeg welke verplichtingen voortvloeien uit uw gebruiksscenario’s, ‘voegde OpenAI eraan toe en bood enkele eigen richtlijnen voor de naleving van AI-ontwikkelaars. “Je moet ook bepalen of je een leverancier of een implementeerder bent met betrekking tot welk AI-systeem dan ook. Deze kwesties kunnen complex zijn, dus als u vragen heeft, dient u een juridisch adviseur te raadplegen.”