Beeld: Shutterstock
Om de ontwikkeling en toepassing van kunstmatige intelligentie (AI) in veilige en betrouwbare banen te leiden, is op 1 augustus jongstleden de AI-verordening in de Europese Unie van kracht geworden. Deze regelgeving stelt Europese eisen en kaders voor AI-systemen. Hiermee wordt beoogd optimaal gebruik te maken van de economische kansen van AI, terwijl de risico’s worden beheerst en de ontwikkeling van betrouwbare AI wordt gestimuleerd. De invoering van de verordening gebeurt stapsgewijs.
Verschillende eisen voor verschillende AI-systemen
De AI-verordening bevat een reeks regels om betrouwbare AI in de EU te waarborgen. De eisen variëren afhankelijk van het type AI-systeem en de context waarin het wordt gebruikt. Toepassingen van AI die onaanvaardbare risico’s voor mensen met zich meebrengen, zoals systemen voor oneerlijke beoordeling (social scoring), worden verboden. Voor AI-systemen met hoge risico’s, zoals in de arbeidsmarkt of financiële dienstverlening, gelden strenge eisen. AI-toepassingen die contact hebben met burgers, zoals chatbots of systemen die content creëren of manipuleren (bijvoorbeeld deepfakes), moeten duidelijk als AI worden geïdentificeerd. Voor AI-systemen met weinig of geen risico’s worden geen nieuwe eisen gesteld. De meeste AI-systemen in Europa vallen in deze laatste categorie.
Duidelijkheid voor gebruikers en ontwikkelaars
De AI-verordening biedt duidelijkheid voor burgers, consumenten, overheden en bedrijven die AI-producten gebruiken of ermee in aanraking komen. Zij kunnen erop vertrouwen dat deze systemen veilig en betrouwbaar zijn. Voor AI-ontwikkelaars schept de verordening duidelijkheid over de eisen waaraan hun producten moeten voldoen om op de Europese markt te worden toegelaten. Daarnaast kunnen bedrijven en overheidsorganisaties in zogenaamde regulatory sandboxes advies en begeleiding krijgen van toezichthouders over de regels van de verordening, wat de drempel verlaagt om AI-systemen verantwoord te ontwikkelen en in te zetten. Deze Europese regels zorgen ook voor een gelijk speelveld; niet-Europese aanbieders van AI-producten en -diensten moeten eveneens aan de verordening voldoen als zij hun producten op de Europese markt willen aanbieden.
Reactie van minister en staatssecretaris
Minister Beljaarts van Economische Zaken verwelkomt de verordening: ‘We willen de economische kansen van AI beter benutten en innovatie door onderzoekers en ondernemers blijven stimuleren. Tegelijkertijd moeten we de veilige werking van AI kunnen verzekeren. Met deze wetgeving sluiten we daarom aan op de risico’s van verschillende AI-systemen. Strenge regels waar nodig, maar juist geen onnodige regels voor bedrijven die laag-risico AI-systemen ontwikkelen en toepassen. Ik ben daarom blij met deze Europese afspraken die de juiste balans brengen in de kansen en risico’s van AI.’
Staatssecretaris Szabó van Digitalisering en Koninkrijksrelaties noemt de inwerkingtreding van de AI-verordening een belangrijke mijlpaal voor de Europese Unie: ‘Dit moment van inwerkingtreding van de AI-verordening is een belangrijke mijlpaal voor de Europese Unie. De EU, en daarmee ook Nederland, zet zich er sterk voor in dat we AI kunnen vertrouwen, en dat we ontwikkeling en gebruik van betrouwbare AI bij de overheid stimuleren. Aan de voorkant moeten ontwikkelaars nu bijvoorbeeld de risico’s voor fundamentele rechten in kaart brengen, en burgers worden actief geïnformeerd over de inzet van hoog-risico AI-systemen als het wordt ingezet bij besluiten die hen raken.’
Gefaseerde invoering van de verordening
Hoewel de AI-verordening per 1 augustus 2024 van kracht is geworden, worden de verschillende onderdelen gefaseerd ingevoerd. Dit geeft ontwikkelaars en aanbieders van hoog-risico AI de gelegenheid om hun systemen aan te passen aan de nieuwe eisen.:
- Februari 2025: bepalingen op verboden AI
- Augustus 2025: eisen voor AI voor algemeen gebruik (general purpose AI)
- Augustus 2026: eisen voor hoog-risico AI-toepassingen en transparantieverplichtingen
- Augustus 2027: volledige toepassing van de AI-verordening op hoog-risico AI-producten
- Augustus 2030: volledige naleving door overheidsorganisaties van hoog-risico AI-systemen die vóór augustus 2026 zijn geïntroduceerd
De Europese Commissie zal toezicht houden op grote AI-modellen die voor uiteenlopende doelen kunnen worden ingezet, terwijl nationale toezichthouders erop toezien dat de eisen voor hoog-risico AI-systemen worden nageleefd. Deze controle wordt verankerd in nationale regelgeving.