Europese AI-wet (AI-Act): wat betekent deze wet voor jouw organisatie?

Steeds meer organisaties gebruiken (of ontwikkelen) AI-toepassingen. Nu de AI-Act is aangenomen en de eerste verplichtingen al gelden, vragen veel bedrijven zich af:

Valt onze organisatie onder de AI-Act en wat moeten we concreet doen om aan deze nieuwe wetgeving te voldoen?

SaaS contract advocaat opstellen

Hoewel de Europese AI-verordening (oftewel de AI Act) voor veel organisaties nog voelt als “iets voor later”, is dat eigenlijk niet terecht. De wet is al in augustus 2024 in werking getreden en sinds 2 februari 2025 zijn de eerste regels al van toepassing.

Wist je bijvoorbeeld dat organisaties nu al verplicht zijn om aan AI-geletterdheid te werken?
En dat bepaalde AI-systemen sinds februari gewoon verboden zijn en er dus ook al kan worden gehandhaafd?

Wat veel organisaties ook nog niet weten, is dat de AI-Act niet alleen geldt voor bedrijven die zelf AI ontwikkelen. Juist organisaties die AI gebruiken in hun processen (bijvoorbeeld in HR, zorg of financiële dienstverlening) vallen gewoon onder de verordening.

De vraag is meestal dus niet of jouw organisatie met de AI Act te maken krijgt, maar of je er op tijd klaar voor bent.

Op deze pagina

Wat is de AI Act?

De AI-Act is de nieuwe Europese wet die regels stelt aan zowel de ontwikkeling als het gebruik van kunstmatige intelligentie. De wet kijkt daarbij niet naar de gebruikte techniek (zoals machine learning, taalmodellen of expertsystemen), maar naar de impact die een toepassing heeft. Hoe groter het effect op mensen of samenleving, hoe strenger de regels.

Het uitgangspunt van de verordening is dat AI verantwoord en veilig moet worden ingezet. Om dat te bereiken moeten organisaties hun AI-systemen indelen in verschillende risiconiveaus, zodat passende beheersmaatregelen kunnen worden getroffen. De AI-Act maakt onderscheid tussen vier niveaus: minimaal risico, gelimiteerd risico, hoog risico en onaanvaardbaar risico.

Voor toepassingen met een laag of gelimiteerd risico gelden weinig tot geen aanvullende eisen, terwijl voor hoog-risico AI-systemen concrete verplichtingen gelden op het gebied van documentatie, menselijk toezicht, logging en grondrechtenbescherming. Toepassingen die als onaanvaardbaar risico worden aangemerkt – zoals sociale scoring – zijn verboden.

Daarnaast bevat de verordening specifieke aanvullende eisen voor algemene AI-systemen (General Purpose AI, zoals grote taal- of beeldmodellen), juist omdat deze breed inzetbaar zijn en downstream in allerlei andere toepassingen terecht kunnen komen.

Geldt de AI-Act ook voor mijn organisatie?


Veel organisaties gaan er nog steeds vanuit dat de AI-Act alleen relevant is voor techbedrijven die zelf AI-modellen ontwikkelen. Dat is echt een misvatting. De wet is namelijk nadrukkelijk ook van
toepassing op organisaties die AI toepassen in hun eigen processen. In de AI-Act worden verschillende rollen onderscheiden: aanbieders, gebruiksverantwoordelijken, importeurs, distributeurs en productfabrikanten

Concreet betekent dit bijvoorbeeld dat ziekenhuizen die triagetools gebruiken, gemeenten die algoritmen inzetten voor prioritering, HR-afdelingen die AI gebruiken voor voorselectie of financiële instellingen die een risicoscore genereren, zelf verantwoordelijk zijn voor naleving van de AI-Act. Ook wanneer het systeem is ingekocht bij een derde partij.

Let op: het vaststellen of je onder de AI-Act valt, blijkt in de praktijk vaak complexer dan op het eerste gezicht lijkt. Alles begint bij de vraag of er überhaupt sprake is van een AI-systeem in de zin van de verordening en dat is lang niet altijd het geval. Daarnaast kan een organisatie die in eerste instantie slechts als “gebruiker” optreedt, onder bepaalde omstandigheden toch als aanbieder worden aangemerkt. Dat gebeurt bijvoorbeeld wanneer het systeem onder de eigen naam of het eigen merk wordt aangeboden, of wanneer er zodanige wijzigingen worden doorgevoerd dat het oorspronkelijke doel van de leverancier wijzigt. In zo’n situatie verschuift de verantwoordelijkheid en komen aanzienlijk zwaardere verplichtingen op de organisatie te rusten.

Wil je helder hebben of jouw organisatie onder de AI-Act valt en welke verplichtingen daar concreet uit voortvloeien? Met onze AI-Act Compliance scan brengen we dat op een toegankelijke en gestructureerde manier voor je in kaart. We inventariseren de AI-toepassingen binnen jouw organisatie, toetsen die aan de verordening (inclusief risicoclassificatie en rolbepaling) en vertalen de uitkomsten naar een duidelijke set vervolgstappen waarmee je gericht aan de slag kunt.

Hoe bepaal ik in welke risicocategorie mijn AI-systeem valt?


De AI-Act werkt, zoals eerder aangegeven, met een risicogebaseerde benadering. Dat betekent dat je als organisatie jouw AI-systemen moet indelen in een van de officieel vastgestelde risicocategorieën. Die indeling is cruciaal, omdat hieruit direct volgt
welke verplichtingen gelden. Het is dus belangrijk dat die indeling correct gebeurt en hier geen fouten worden gemaakt. 

In de AI-verordening worden vier categorieën onderscheiden:

Onaanvaardbaar risico
Dit zijn systemen die een ernstig risico vormen voor grondrechten of fundamentele waarden. Ze zijn daarom volledig verboden.

Hoog risico
AI-systemen die een hoog risico vormen voor de gezondheid, veiligheid of grondrechten van personen. Denk bijvoorbeeld aan AI-toepassingen in de gezondheidszorg of in het onderwijs. Voor deze toepassingen geldt een uitgebreid pakket aan verplichtingen. De kwalificatie “hoog risico” vindt plaats op basis van artikel 6 in combinatie met bijlage III van de verordening.

Beperkt risico (transparantieplicht)
AI-systemen die beperkt risico met zich meebrengen, moeten voldoen aan een transparantieverplichting. Denk hierbij bijvoorbeeld aan chatbots.

Minimaal of geen risico
AI-systemen met een verwaarloosbaar risico vallen buiten het toepassingsbereik van de AI-Act. Er gelden dan géén verplichtingen, al kunnen aanbieders of gebruikers er natuurlijk wel voor kiezen om vrijwillige gedragscodes toe te passen.

Het bepalen van de juiste risicocategorie begint dus altijd met een duidelijke analyse van wat het AI-systeem precies doet en welk effect de output heeft op de personen of processen waarop het betrekking heeft. Het is verstandig om dat niet alleen technisch, maar ook juridisch te beoordelen. In de praktijk zijn er namelijk verschillende uitzonderingen en nuances, waardoor een toepassing die op het eerste gezicht hoog-risico lijkt, uiteindelijk helemaal niet binnen die categorie valt of juist wel. Een zorgvuldige beoordeling voorkomt dat je te zware (of juist te lichte) eisen toepast en zorgt ervoor dat je het AI-systeem op de juiste manier onder de verordening kwalificeert.

Welke AI-systemen zijn verboden?

De AI-Act bevat een aantal duidelijke verboden. Het gaat om AI-systemen die zó ingrijpend zijn voor de grondrechten van personen, dat ze in de Europese Unie helemaal niet mogen worden gebruikt. Deze verboden staan in artikel 5 van de verordening en zijn gebaseerd op het uitgangspunt dat AI nooit mag worden ingezet voor manipulatie, uitbuiting, sociale controle of willekeurige surveillance.

Kort samengevat zijn de volgende AI-toepassingen verboden:

  • Manipulatieve AI: systemen die gebruikmaken van subliminale of doelbewust misleidende technieken om het gedrag van personen te beïnvloeden (bijv. zonder dat iemand het zelf doorheeft).
  • Uitbuiting van kwetsbaarheden: AI die bewust gebruikmaakt van kwetsbaarheden van kinderen, ouderen of andere kwetsbare groepen met als doel hun gedrag te sturen.
  • Social scoring: AI die mensen beoordeelt of rangschikt op basis van hun gedrag of persoonlijke kenmerken, waardoor iemand een ongunstige behandeling krijgt (zoals bij het Chinese sociale kredietsysteem).
  • AI die op basis van profilering het risico op crimineel gedrag voorspelt, zonder objectieve of verifieerbare feiten.
  • Ongerichte scraping voor gezichtsherkenning: AI die grote databases met gezichtsafbeeldingen opbouwt via het automatisch “scrapen” van internet of CCTV-beelden.
  • Emotieherkenning op het werk of in het onderwijs, tenzij dit strikt noodzakelijk is om medische of veiligheidsredenen.
  • AI die biometrische gegevens gebruikt om gevoelige informatie af te leiden, zoals ras, religie, seksuele geaardheid of politieke voorkeur.
  • Realtime biometrische identificatie in de publieke ruimte door opsporingsdiensten (zoals het live scannen van gezichten op straat), behalve in zeer beperkte uitzonderingssituaties, bijvoorbeeld bij het gericht zoeken naar een vermist slachtoffer.

Gebruik je als organisatie – bewust of onbewust – een AI-systeem dat in een van deze categorieën valt, dan mag dit sinds 2 februari 2025 niet meer worden ingezet.

AI-Act: wat moet mijn organisatie doen bij hoog-risico AI?


De AI-Act maakt hierin o.a. een onderscheid tussen aanbieders van hoog-risico AI-systemen (organisaties die de AI zelf ontwikkelen en op de markt brengen) en gebruikers van hoog-risico AI-systemen (organisaties die de technologie gebruiken in hun eigen processen). In beide gevallen gelden er verschillende wettelijke verplichtingen.

In de praktijk betekent het gebruik van een hoog-risico AI-systeem bijvoorbeeld dat je als organisatie het systeem uitsluitend mag inzetten volgens de instructies van de leverancier, dat er menselijk toezicht moet worden aangesteld (met duidelijke rollen en bevoegdheden), dat de kwaliteit en relevantie van de gebruikte data moet zijn geborgd en dat de werking van het systeem actief wordt gemonitord.

Ook moet vooraf worden beoordeeld welke gevolgen het gebruik van het systeem kan hebben voor de grondrechten van betrokken personen. Zo moet onder meer worden gekeken naar de duur van het gebruik, het soort proces waarin het systeem wordt toegepast en de mogelijke impact op specifieke groepen of individuen.

Als aanbieder van een hoog-risico AI-systeem gelden enkele aanvullende verplichtingen. In dat geval moet je al vóór het op de markt brengen kunnen aantonen dat het systeem voldoet aan alle wettelijke eisen uit de AI-Act. Denk aan het opstellen van volledige technische documentatie, het inrichten van een risicobeheersysteem, het borgen van de kwaliteit van trainings- en testdata en het uitvoeren van een formele conformiteitsbeoordeling (soms door een externe ‘notified body’). Pas wanneer deze beoordeling met succes is afgerond, mag het AI-systeem worden ingezet of op de markt worden gebracht en moet er een EU-verklaring van conformiteit worden opgesteld.

AI-Act verplichtingen voor gebruikers van AI-systemen

De verplichtingen voor gebruikers van AI-systemen onder de AI-Act zijn niet voor iedere toepassing hetzelfde. Welke verplichtingen gelden, hangt namelijk af van de risicocategorie van het systeem (minimaal, beperkt, hoog of onaanvaardbaar risico).

Daarom is het essentieel om éérst een inventarisatie te maken van welke AI-systemen binnen de organisatie worden gebruikt en vervolgens per systeem te bepalen in welke risicocategorie het valt. Pas daarna kun je vaststellen welke juridische verplichtingen op jou als gebruiker van toepassing zijn (bijvoorbeeld menselijk toezicht, logging of grondrechtenanalyse bij hoog-risico AI).

Zijn wij verplicht een conformiteitsbeoordeling (CE) uit te voeren onder de AI-Act?

Dat hangt ervan af of jouw organisatie aanbieder is van een hoog-risico AI-systeem (lees hier meer over de verplichtingen voor leveranciers & ontwikkelaars van AI).

Voor aanbieders van hoog-risico AI-systemen is de belangrijkste verplichting onder de AI-Act het uitvoeren van een conformiteitsbeoordeling. Die beoordeling moet plaatsvinden vóórdat het systeem op de markt wordt gebracht of door anderen gebruikt kan worden. Afhankelijk van de toepassing mag de aanbieder deze beoordeling zelf uitvoeren, of moet dit verplicht worden gedaan door een aangemelde instantie (notified body).

Tijdens de conformiteitsbeoordeling wordt beoordeeld of het AI-systeem voldoet aan alle materiële eisen van de AI-Act. Het gaat daarbij onder meer om:

  • een goed ingericht risico- en kwaliteitsmanagementsysteem;
  • representatieve datasets (geen bias);
  • duidelijke technische documentatie en logmogelijkheden;
  • menselijk toezicht tijdens het gebruik;
  • voldoende robuustheid, accuratesse en cybersecurity.

Als het systeem aan alle eisen voldoet, stelt de aanbieder een conformiteitsverklaring op en registreert hij het AI-systeem in de openbare Europese databank (die momenteel nog in ontwikkeling is). De verklaring moet vervolgens ten minste tien jaar worden bewaard, zodat de toezichthouder deze – indien nodig – kan opvragen.

Waar begin je als organisatie als je AI-Act compliant wilt worden?

Simpel: eerst moet je weten welke AI-toepassingen je eigenlijk gebruikt. Dat klinkt vanzelfsprekend, maar in de praktijk blijken er vaak meer AI-modules in processen te zitten dan organisaties denken, zeker bij ingekochte tooling of SaaS-oplossingen. Pas als je weet wát je gebruikt, kun je bepalen of het onder de AI-Act valt én in welke risicocategorie het terechtkomt.

Onze ervaring is dat het helpt om hier heel praktisch naar te kijken:

  • Welke AI-toepassingen gebruiken we? (en wie in de organisatie gebruikt ze)?
  • Welke rol hebben wij? → hebben wij het systeem ontwikkeld (aanbieder) of gebruiken we het in onze processen (gebruiker)?
  • Welke risicocategorie past bij het systeem? → minimaal, beperkt, hoog risico of zelfs verboden
  • En welke verplichtingen horen daar dan bij?
      → als gebruiker: menselijk toezicht, logging, grondrechtenanalyse, transparantie
      → als aanbieder: documentatie, datagovernance, conformiteitsbeoordeling

Veelgestelde vragen over de AI Act

De AI-Act is bedoeld om de voordelen van AI te benutten, maar tegelijkertijd de gezondheid, veiligheid en fundamentele rechten van burgers te beschermen. Zonder een gezamenlijk EU-kader dreigt versnippering en ontstaat er juist minder vertrouwen in AI, iets wat de toepassing daarvan afremt. De wet zorgt dus voor heldere spelregels én rechtszekerheid voor organisaties die AI willen inzetten.

 

De AI-Act geldt voor alle organisaties (publiek én privaat) die AI-systemen op de EU-markt brengen of gebruiken – óók als de organisatie buiten de EU is gevestigd, zolang de output in de EU wordt gebruikt. De verplichtingen kunnen gelden voor zowel aanbieders (bijv. ontwikkelaar van een CV-screening tool) als voor gebruikers (bijv. een bank die de tool afneemt en toepast).

 

Dat hangt af van het doel en de context waarin het systeem wordt gebruikt. De AI-Act bevat een lijst met hoog-risico toepassingen, zoals AI die wordt gebruikt in zorg, onderwijs, HR, financiële dienstverlening, wetshandhaving of bij de overheid. Daarnaast geldt: als de AI een veiligheidscomponent is van een gereguleerd product (bijv. medische software), geldt automatisch het hoog-risico regime.

 

Gebruikers moeten o.a. zorgen voor menselijk toezicht, logging, monitoring tijdens gebruik, en een grondrechtenanalyse uitvoeren voordat het systeem wordt ingezet. Ook moeten betrokkenen (zoals patiënten of sollicitanten) worden geïnformeerd over het gebruik van AI.

 

Alleen als je zelf aanbieder bent van een hoog-risico AI-systeem (dus het systeem ontwikkelt en onder eigen naam aanbiedt). In dat geval moet je vóór ingebruikname een conformiteitsbeoordeling uitvoeren en het systeem registreren in de Europese databank.
Gebruik je een hoog-risico AI die door een derde is geleverd, dan hoef je dat niet zelf te doen – maar je bent wel verantwoordelijk om te controleren óf de aanbieder dat heeft gedaan.

Juridische begeleiding nodig bij de implementatie van de AI Act?


We denken graag met je mee. Onze ICT-juristen en compliance specialisten helpen organisaties bij het praktisch toepassen van de AI-wet. Van risicoclassificatie tot concrete maatregelen in beleid en toezicht.

Neem gerust contact op, we vertellen je graag wat we voor jouw organisatie kunnen betekenen.

Foto van mr. Hester Spaans

mr. Hester Spaans

Co-founder & Senior Legal Counsel

Neem contact met ons op

SenS juristen

We zijn gevestigd op de Vijzelstraat 68 (1017 HL) in het mooie Amsterdam en sinds 2018 ingeschreven in het register van de Kamer van Koophandel onder nummer: 71533230.
Ons BTW-nummer: NL858752530B01. 

020 261 5141

Scroll naar boven

Laat hier je bericht achter. We reageren meestal binnen één werkdag.

* Bekijk ons privacybeleid om te zien hoe we met jouw persoonsgegevens omgaan.

mr. Hester Spaans

Co-founder & General legal consultant

Hester is een van de oprichters van SenS juristen en werkt als General Legal Consultant. Ze heeft meerdere masters in het recht afgerond aan de Universiteit van Amsterdam en het voorrecht gehad een half jaar aan de University of Hong Kong te mogen studeren. Gefrustreerd over de stoffige juridische wereld, besloot ze destijds het heft in eigen hand te nemen en als ondernemer te starten. 

Inmiddels werkt ze al zo’n 8 jaar bij SenS juristen en heeft ze honderden ondernemers mogen bijstaan met vraagstukken op het snijvlak van IT en recht.

Haar passie voor tech (en met name AI!) is van grote waarde bij het ‘vertalen’ van juridische regelgeving op het gebied van ICT/internet-en privacyrecht naar de dagelijkse technische realiteit. Klanten omschrijven haar als doortastend, vakkundig en pragmatisch. Om haar kennis op peil te houden is ze o.a. lid van de Vereniging voor Auteursrecht. 

mr. Lucia Spaans

Co-founder & Privacy officer

Lucia is mede-oprichter van SenS juristen en werkt gedreven samen met het team aan het leveren van onze juridische diensten op top niveau.

Ze is enorm gemotiveerd en een perfectioniste (soms, oké, dikwijls, op het irritante af) die alles tot in de puntjes geregeld wil zien. Haar passie voor het recht kwam al naar voren tijdens haar studietijd in Amsterdam, waar ze ervoor koos om twee juridische masters te volgen. Het liefst controleert ze alle juridische stukken en correspondentie die dagelijks bij SenS juristen de deur uitgaan meerdere malen, zodat de cliënt er zeker van kan zijn dat alles perfect geregeld is.

Verder is ze een groot fan van koffie, reist ze graag en is ze actief als gitariste (ja, echt).