Wat betekent de AI Act precies?
De AI Act verdeelt AI-toepassingen in verschillende risicocategorieën. Hoe groter het risico voor mensen of maatschappij, hoe strenger de regels.
Verboden AI-toepassingen
Sommige toepassingen zijn niet langer toegestaan, zoals:
- Gezichtsherkenning in openbare ruimtes
- Emotieherkenning op de werkvloer
- AI-systemen die mensen beoordelen of indelen (social scoring)
Hoog-risico AI: hier krijg je te maken met streng toezicht
Voor bijvoorbeeld recruitmentsoftware, kredietbeoordeling of AI die verkiezingen beïnvloedt, gelden strenge eisen. Gebruik je zo’n systeem? Dan moet je kunnen aantonen dat het eerlijk werkt en goed getest is. Dat vraagt om duidelijke stappen, zoals:
- uitvoerig testen
- goed documenteren
- transparant uitleggen
- en in sommige gevallen certificeren
Gebruik jij AI in je werving, klantselectie of risicobeoordeling? Dan heb je straks wettelijke verplichtingen. Leef je dit niet na? Dat kan leiden tot forse boetes.
Lage-risico AI? Ook dan gelden regels
Denk aan chatbots of generatieve AI (zoals ChatGPT). Hierbij gelden transparantieverplichtingen. Gebruikers moeten altijd weten wanneer zij met een AI-systeem communiceren.
Wat moet je nu doen? 5 stappen om AI-compliant te worden
Veel organisaties gebruiken al AI, vaak zonder het zo te benoemen. Denk aan voorspellende modellen, automatisering in klantcontact of systemen die risico’s inschatten. Maar voldoet het gebruik daarvan aan de nieuwe wetgeving?
1. Breng je AI-systemen in kaart
Waar binnen jouw organisatie wordt AI gebruikt? Kijk verder dan alleen de grote toepassingen. Ook kleinere onderdelen in processen kunnen gebruikmaken van AI. Gebruikt je marketingafdeling een AI-tool voor automatische klantsegmentatie? Of analyseert je HR-afdeling sollicitatiebrieven met AI?
2. Bepaal het risiconiveau per toepassing
De AI Act onderscheidt vier niveaus:
-
Verboden AI
-
Hoog-risico AI
-
Beperkt risico
-
Laag of geen risico
Voor veel organisaties zullen toepassingen in de categorie “hoog risico” vallen, zeker als AI invloed heeft op klanten, medewerkers of burgers.
3. Zorg voor documentatie en transparantie
Per AI-toepassing moet je kunnen uitleggen:
-
Hoe het systeem werkt
-
Op basis van welke data beslissingen worden genomen
-
Welke risico’s er zijn
-
Hoe die risico’s worden beheerst
Ook extern is transparantie verplicht: gebruikers moeten weten dat ze met AI te maken hebben en hoe dat hun situatie beïnvloedt.
4. Organiseer verantwoordelijkheid en toezicht
Wie is binnen jouw organisatie verantwoordelijk voor het AI-beleid? En hoe wordt toezicht geregeld?
Denk aan:
-
Het aanstellen van een AI-coördinator
-
Regelmatig toetsen van AI-systemen
-
Interne of externe audits
5. Maak duidelijke afspraken met leveranciers
Veel AI-toepassingen worden geleverd door externe partijen. Toch blijft jouw organisatie verantwoordelijk.
Vraag leveranciers:
-
Hoe werkt het systeem precies?
-
Hoe borgen zij compliance met de AI Act?
-
Leg afspraken vast in contracten en SLA’s.
Wat betekent dit concreet voor jouw organisatie?
AI wordt vaker gebruikt dan je denkt. In chatbots, in klantselectie, in automatisering. Grote kans dat jouw organisatie er ook al mee werkt. Maar weet je precies waar? En voldoet dat gebruik straks aan de wet?
Bij Nexler helpen we organisaties om grip te krijgen op AI. Geen black box, maar oplossingen die transparant, uitlegbaar en betrouwbaar zijn.
Zo zorgen we samen voor:
-
AI-toepassingen die je kunt uitleggen
-
Volledige controle over automatisering
-
Technologie die past binnen de regels en bij je organisatie