De Europese AI-verordening, beter bekend als de EU AI Act, is de eerste bindende AI-wetgeving ter wereld. De wet werd op 12 juli 2024 gepubliceerd in het Publicatieblad van de Europese Unie en trad in augustus 2024 gefaseerd in werking. Vanaf 2 augustus 2026 worden de meeste verplichtingen van kracht voor de overgrote meerderheid van organisaties die AI inzetten in hun bedrijfsprocessen. Dat geldt niet alleen voor ontwikkelaars van AI-systemen, maar ook voor reguliere bedrijven die AI gebruiken via een abonnement of geïntegreerde tool.
In deze gids leggen we precies uit wat de verordening inhoudt, welke risicocategorieën er bestaan, welke deadlines van toepassing zijn en hoe je als organisatie stap voor stap kunt voldoen aan de regels. We sluiten af met de meest gemaakte fouten en een concreet stappenplan.
Wat is de EU AI Act?
De AI Act is Europese wetgeving die kunstmatige intelligentie reguleert op basis van het risico dat een systeem kan opleveren voor mensen en de samenleving. Hoe groter het risico, hoe zwaarder de eisen. De verordening hanteert een gelaagde aanpak met vier categorieën, waarbij elke categorie eigen verplichtingen kent.
De AI Act geldt extraterritoriaal. Ook buiten de EU gevestigde organisaties moeten zich aan de regels houden zodra hun AI-systemen of de output ervan in de EU worden gebruikt. Dit wordt in juridische kringen het Brussels Effect genoemd.
Volgens de definitieve tekst is een AI-systeem een op een machine gebaseerd systeem dat is ontworpen om met variërende niveaus van autonomie te werken, dat na implementatie adaptiviteit kan vertonen en dat uit de ontvangen input afleidt hoe het output kan genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die fysieke of virtuele omgevingen kunnen beïnvloeden.
Systemen die uitsluitend gebruik maken van eenvoudige wiskundige optimalisatie of langgevestigde methoden, zoals standaard lineaire of logistische regressie zonder adaptieve componenten, vallen buiten de scope. Zodra deze methoden worden gecombineerd met technieken als reinforcement learning, worden zij doorgaans wel als AI-systeem aangemerkt.
De vier risicocategorieën
1. Verboden AI-praktijken
Sinds 2 februari 2025 zijn acht categorieën AI-toepassingen volledig verboden in de EU. De wetgever heeft hiermee een harde grens getrokken tegen praktijken die als onethisch of manipulatief worden beschouwd.
- Schadelijke manipulatie via subliminale technieken die gedrag onbewust veranderen.
- Exploitatie van kwetsbaarheden op basis van leeftijd, beperking of sociaaleconomische situatie.
- Social scoring door overheden of private instanties op basis van gedrag of persoonlijkheid.
- Predictive policing dat de waarschijnlijkheid van een misdrijf voorspelt op basis van profilering.
- Emotieherkenning op de werkplek of in onderwijsinstellingen, behalve voor strikte veiligheidsdoeleinden.
- Biometrische categorisering op basis van ras, religie, politieke overtuiging of seksuele geaardheid.
- Real-time biometrische identificatie op afstand in de openbare ruimte door wetshandhaving.
- Ongericht schrapen van biometrische gegevens van internet of CCTV.
Onder het Digital Omnibus-akkoord van mei 2026 is hier een verbod aan toegevoegd op zogenaamde nudifier-apps: AI-systemen die zonder toestemming intieme of seksueel expliciete inhoud genereren van identificeerbare personen.
2. Hoog-risico AI
Hoog-risico systemen zijn toegestaan, mits aan de strengste eisen wordt voldaan. Deze systemen worden via twee paden geïdentificeerd. Het eerste pad betreft systemen die fungeren als veiligheidscomponent in producten die al onder bestaande EU-harmonisatiewetgeving vallen, zoals medische hulpmiddelen, liften en zware machines. Het tweede pad betreft de stand-alone systemen die expliciet zijn opgenomen in Bijlage III.
Voorbeelden van Bijlage III-toepassingen:
- Biometrie en biometrische identificatie op afstand
- Kritieke infrastructuur zoals wegverkeer, watervoorziening en elektriciteit
- Onderwijs en beroepsopleiding, waaronder toelating en examenbeoordeling
- Werkgelegenheid en personeelsbeheer, waaronder recruitment software en prestatiebeoordeling
- Toegang tot essentiële diensten zoals credit scoring en risicobeoordeling bij verzekeringen
- Wetshandhaving, migratie, asiel en grenscontrole
- Rechtspleging en democratische processen
Voor deze systemen moeten aanbieders een conformiteitsbeoordeling uitvoeren, een risicomanagementsysteem implementeren, technische documentatie opstellen en zorgen voor effectief menselijk toezicht.
3. Beperkt-risico AI
Hieronder vallen systemen waarbij transparantie verplicht is, maar waar geen zware compliance-eisen gelden. Voorbeelden zijn chatbots die klantvragen beantwoorden, emotieherkenning buiten de verboden context en systemen die deepfakes genereren. Twee kernregels:
- Gebruikers moeten expliciet weten dat zij interageren met een machine.
- Door AI gegenereerde content moet herkenbaar zijn gemarkeerd, bijvoorbeeld via een watermerk of een duidelijke vermelding.
4. Minimaal risico
De overgrote meerderheid van AI-toepassingen, zoals spamfilters, aanbevelingssystemen en AI in videogames, valt in deze categorie. Er gelden geen extra wettelijke verplichtingen onder de verordening, hoewel vrijwillige gedragscodes worden aangemoedigd.
General-Purpose AI: de regulering van fundamenten
De snelle opkomst van Large Language Models zoals GPT, Claude en Gemini heeft geleid tot een apart hoofdstuk over General-Purpose AI, oftewel GPAI. Deze modellen kunnen in talloze downstream-applicaties worden geïntegreerd en daardoor gelden voor de aanbieders ervan specifieke regels.
Aanbieders van GPAI-modellen moeten:
- Technische documentatie bijhouden over het model en de training.
- Informatie verstrekken aan downstream-gebruikers die het model integreren.
- Een beleid voeren om te voldoen aan het EU-auteursrecht.
- Een publiek samenvatting publiceren van de gebruikte trainingsdata.
Modellen die zijn getraind met een rekenkracht van meer dan tien tot de macht 25 floating point operations worden automatisch geclassificeerd als modellen met een systemisch risico. Aanbieders van dergelijke modellen moeten extra evaluaties uitvoeren, risico's mitigeren via adversarial testing en ernstige incidenten direct melden aan het Europese AI Office.
Aanbieder of gebruiker: jouw verantwoordelijkheid
Dit is het deel van de wet dat de meeste ondernemers verrast. Ook als je AI niet zelf bouwt, maar gewoon inkoopt via een abonnement, ben je in juridische zin een gebruiker en draag je eigen verplichtingen.
De wet maakt een fundamenteel onderscheid tussen aanbieders, dat zijn bedrijven die AI-systemen ontwikkelen of op de markt brengen, en gebruikers, dat zijn organisaties die AI inzetten in hun werkprocessen. Volgens Artikel 3 van de AI Act is iedere organisatie die AI toepast om bedrijfsprocessen te ondersteunen of te automatiseren een gebruiker.
Je verantwoordelijkheid als gebruiker omvat onder meer:
- Begrijpen voor welk doel je de AI inzet en welke risico's daaraan verbonden zijn.
- Zorgen voor menselijk toezicht bij beslissingen die mensen direct raken.
- Transparant zijn richting klanten, sollicitanten of andere betrokkenen.
- Documenteren hoe je AI gebruikt en welke maatregelen je hebt getroffen.
- Voldoen aan de AI-geletterdheidseis voor je personeel.
Welke tools gebruik jij eigenlijk?
Veel ondernemers weten niet precies welke AI-systemen er in hun organisatie worden gebruikt, waarvoor en door wie. Dat is meestal het eerste obstakel: je kunt niet beoordelen of je compliant bent als je geen overzicht hebt. Hieronder een aantal veelgebruikte tools en de risicocategorie waarin ze doorgaans vallen.
| Tool of systeem | Risicocategorie | Toelichting |
|---|---|---|
| ChatGPT, Claude, Gemini voor interne taken | Beperkt of minimaal | Bij gebruik voor tekst, samenvatting of analyse is het risico laag. Bij directe beslissingen over mensen verschuift de verantwoordelijkheid. |
| AI-chatbot op je website | Beperkt risico | Gebruikers moeten expliciet weten dat ze met AI praten. |
| AI-recruitmenttool die kandidaten rankt | Hoog risico | Valt onder Bijlage III, werkgelegenheid en personeelsbeheer. |
| AI in boekhoud- of facturatiesoftware | Minimaal risico | Geen wettelijke verplichtingen, mits geen beslissingen over mensen. |
| AI-scoring voor krediet of betalingsgedrag | Hoog risico | Expliciet genoemd in Bijlage III. |
| AI voor automatische CV-screening | Hoog risico | Valt onder werkgelegenheid en personeelsbeheer. |
| Marketing-AI voor segmentatie | Beperkt of minimaal | Hangt af van de impact op individuen. |
| AI in medische diagnose-ondersteuning | Hoog risico | Valt onder gereguleerde producten. |
Tijdlijn en deadlines
De AI Act wordt gefaseerd ingevoerd. Het Digital Omnibus-akkoord van mei 2026 heeft enkele deadlines verschoven, maar de hoofdrichting blijft staan. Een afwachtende strategie is risicovol omdat conformiteitsbeoordelingen en de selectie van een Notified Body vaak twaalf tot achttien maanden duren.
| Onderdeel | Oorspronkelijke deadline | Nieuwe deadline |
|---|---|---|
| Verboden praktijken | 2 februari 2025 | Reeds van kracht |
| AI-geletterdheid (Artikel 4) | 2 februari 2025 | Reeds van kracht |
| GPAI governance en regels | 2 augustus 2025 | 2 augustus 2025 |
| Watermarking en labeling | 2 augustus 2026 | 2 december 2026 |
| Hoog-risico AI Bijlage III | 2 augustus 2026 | 2 december 2027 |
| Hoog-risico AI in gereguleerde producten | 2 augustus 2027 | 2 augustus 2028 |
Registratie in de publieke EU-database
De AI Act voorziet in een centrale, publiek raadpleegbare EU-database waarin hoog-risico AI-systemen worden geregistreerd. Onder het politiek akkoord van mei 2026 wordt deze registratieplicht verruimd naar aanbieders van zogenaamde vrijgestelde AI-systemen, dat wil zeggen systemen die op basis van een risicobeoordeling buiten de hoog-risico categorie vallen ondanks dat ze in een Bijlage III-domein opereren.
Voor deze vrijgestelde systemen geldt een lichtere informatieplicht. De aanbieder hoeft minder gedetailleerde technische gegevens aan te leveren dan bij echte hoog-risico systemen, maar moet wel transparant maken waarom de uitzondering van toepassing is.
Wat dit concreet betekent:
- Aanbieders van Bijlage III-systemen die vinden dat hun systeem geen significant risico oplevert moeten dit kunnen aantonen via een gestructureerde zelfbeoordeling.
- De registratie in de EU-database is publiek raadpleegbaar, klanten en toezichthouders kunnen dus zien dat je systeem bestaat en wat de claim van vrijstelling is.
- Bij twijfel of bij geconstateerde tekortkomingen kan de toezichthouder de vrijstelling intrekken en alsnog hoog-risico verplichtingen opleggen met terugwerkende kracht.
AI-geletterdheid: Artikel 4
Sinds 2 februari 2025 moeten organisaties maatregelen nemen om de AI-geletterdheid van hun personeel te waarborgen. Dat geldt voor iedereen die met AI-output werkt, van HR-managers tot klantenservicemedewerkers. Medewerkers moeten begrijpen hoe de AI-tools die zij gebruiken werken, wat de beperkingen zijn en welke ethische risico's er kleven aan de output.
In de Nederlandse Uitvoeringswet AI-verordening wordt deze plicht naar verwachting gehandhaafd via herstelsancties zoals een last onder dwangsom. Critici stellen dat dit proactieve implementatie ontmoedigt, omdat bedrijven pas in actie hoeven te komen nadat een tekortkoming is geconstateerd. Er wordt gepleit voor een grotere rol van de Ondernemingsraad om druk op werkgevers uit te oefenen.
Menselijk toezicht: Artikel 14
Hoog-risico AI-systemen moeten zodanig zijn ontworpen dat natuurlijke personen effectief toezicht kunnen houden tijdens de gebruiksperiode. Dit toezicht moet voorkomen dat mensen blindelings vertrouwen op suggesties van een machine, een fenomeen dat in de literatuur bekend staat als automatiseringsbias.
De toezichthouder moet:
- De werking van het systeem voldoende begrijpen om kritisch te kunnen oordelen.
- In staat zijn om outputs te negeren of het systeem volledig stop te zetten.
- Bewust zijn van de beperkingen en mogelijke fouten van het systeem.
- Bij twijfel een second opinion kunnen aanvragen of een onafhankelijke beoordeling kunnen organiseren.
Nederlandse handhaving: het hybride toezichtmodel
In Nederland wordt het toezicht op de AI-verordening vastgelegd in de nationale Uitvoeringswet AI-verordening. Het kabinet heeft gekozen voor een hybride model waarbij sectorale expertise wordt gecombineerd met centrale coördinatie.
Bestaande sectorale toezichthouders behouden hun rol voor AI in hun domein:
- NVWA voor consumentenproducten
- IGJ voor medische hulpmiddelen
- AFM en DNB voor de financiële sector
- ILT voor transport
De interactie met de AVG: synergie of conflict?
Voor systemen die persoonsgegevens verwerken gelden zowel de AVG als de AI Act gelijktijdig. Onder de AVG is een Data Protection Impact Assessment verplicht bij hoog-risico verwerkingen. Onder de AI Act moeten bepaalde gebruikers, met name overheidsinstanties en aanbieders van essentiële diensten, een Fundamental Rights Impact Assessment uitvoeren.
| Aspect | DPIA (AVG) | FRIA (AI Act) |
|---|---|---|
| Focus | Bescherming van persoonsgegevens | Brede fundamentele rechten |
| Verplicht voor | Hoog-risico verwerkingen | Bepaalde deployers van hoog-risico AI |
| Reikwijdte | Privacy en datalek | Menselijke waardigheid, non-discriminatie, vrijheid van meningsuiting, kinderrechten |
Een opmerkelijke bepaling in de AI Act staat aanbieders van hoog-risico systemen toe om tijdelijk bijzondere categorieën persoonsgegevens te verwerken, zoals ras, religie of gezondheid, om bias in modellen op te sporen en te corrigeren. Onder het politiek akkoord van mei 2026 worden deze mogelijkheden ruimer, mits het gebruik strikt noodzakelijk is en uitsluitend gericht op specifieke, vooraf gedefinieerde vormen van bias. Het blijft een directe uitzondering op het algemene verwerkingsverbod onder de AVG. Strikte beveiligings- en pseudonimiseringsmaatregelen blijven verplicht en de data moet na correctie worden verwijderd.
Boetestructuur
De sancties zijn ontworpen om ook voor grote tech-bedrijven afschrikwekkend te zijn. Voor het mkb en startups gelden proportioneel lagere bedragen.
| Type overtreding | Maximale boete | Alternatief op basis van omzet |
|---|---|---|
| Gebruik van verboden AI-praktijken | 35 miljoen euro | 7 procent wereldwijde jaaromzet |
| Niet-naleving hoog-risico eisen | 15 miljoen euro | 3 procent wereldwijde jaaromzet |
| Schending transparantieregels | 15 miljoen euro | 3 procent wereldwijde jaaromzet |
| Onjuiste informatie aan autoriteiten | 7,5 miljoen euro | 1 procent wereldwijde jaaromzet |
Stappenplan: zo word je compliant
Een gestructureerde aanpak is essentieel om op tijd klaar te zijn voor de deadlines van 2026 en 2027. Onderstaand een praktisch stappenplan dat Cloud Captains hanteert bij compliance-trajecten voor klanten.
Veelgemaakte misverstanden en valkuilen
1. De aanbiederstatus door modificatie
Een organisatie die een bestaand AI-systeem ingrijpend wijzigt of aanpast voor een specifiek hoog-risico doel, wordt wettelijk gezien de aanbieder. Hiermee verschuift de volledige verantwoordelijkheid voor technische documentatie en conformiteitsbeoordeling naar deze organisatie.
2. De incident-rapportage paradox
Bij een AI-gerelateerd incident moet een organisatie vaak binnen drie verschillende tijdlijnen rapporteren aan drie verschillende autoriteiten: 24 uur voor NIS2, 72 uur voor de AVG en vijftien dagen voor de AI Act. Het risico is dat verklaringen die in de eerste 24 uur worden afgelegd later tegen de organisatie kunnen worden gebruikt in een AVG- of AI-onderzoek.
3. Ambiguïteit in GPAI-metriek
De verplichting voor GPAI-aanbieders om de omvang van geschraapte content te vermelden, laat in het midden of dit moet gebeuren in bestandsgrootte, aantal tokens of aantal documenten. Deze onduidelijkheid kan leiden tot inconsistente rapportages.
4. De toeleveringsketen
Organisaties die AI-systemen inzetten moeten contractuele garanties vragen van hun toeleveranciers. Aanbieders van GPAI-modellen zijn verplicht informatie te delen met downstream-gebruikers, maar de diepgang van die informatie is vaak een bron van commerciële geschillen. Leg dit goed vast in je inkoopcontracten.
5. Open source is geen vrijbrief
Modellen die onder open-source licenties worden uitgebracht zijn niet automatisch vrijgesteld. Voor niet-systemische open-source modellen gelden bepaalde transparantie-vrijstellingen, maar de basisverplichtingen blijven overeind.
De milieudimensie
De AI Act introduceert voor het eerst verplichtingen rondom de ecologische voetafdruk van technologie. Aanbieders van GPAI-modellen moeten de bekende of geschatte energieconsumptie documenteren. De Europese Commissie werkt aan gedelegeerde handelingen om gestandaardiseerde meet- en berekeningsmethoden vast te stellen. In de toekomst kan de ecologische impact van een AI-systeem zelfs meewegen bij toelating in specifieke sectoren.
Operationele kosten voor het mkb
Volgens impact assessments van de Europese Commissie kunnen de compliancekosten voor een mkb-bedrijf oplopen tot vier ton euro per hoog-risico product. Dat lijkt veel, maar is verdeeld over meerdere componenten.
| Kostenpost | Toelichting | Geschatte omvang mkb |
|---|---|---|
| Kwaliteitsmanagementsysteem | Workflows voor data governance en monitoring | 71.400 tot 330.000 euro |
| Technische documentatie | Beschrijving van architectuur en training | Onderdeel van QMS |
| Conformiteitsbeoordeling | Externe toetsing door een Notified Body | Tot 1 miljoen euro incidenteel |
| AI-geletterdheid en training | Opleiden van personeel conform Artikel 4 | 6.000 tot 7.000 euro |
| Doorlopende monitoring | Post-market surveillance en incident rapportage | Jaarlijkse overhead 17 procent |
Conclusie
De AI Act is veel meer dan een juridische checkbox. Het is een herdefiniëring van het innovatieproces. Voor een succesvolle implementatie moeten organisaties afstappen van het idee dat AI-compliance een taak is voor enkel de IT-afdeling of enkel de juridische afdeling. Het raakt strategie, governance, HR en operations.
De kosten en regeldruk zijn significant, maar de Brussels Effect zal er waarschijnlijk voor zorgen dat de Europese norm de mondiale standaard wordt voor betrouwbare en mensgerichte kunstmatige intelligentie. Wie nu begint, bouwt vertrouwen bij klanten en burgers en voorkomt dat compliance een laat-stadium probleem wordt.
De organisaties die de AI Act omarmen als een kans om hun governance op orde te krijgen, zullen op de lange termijn beter scoren op vertrouwen, kwaliteit en klantloyaliteit dan zij die wachten tot de toezichthouder voor de deur staat.
- Cloud Captains