Meer regelgeving. Wie wil dat nou? Toch is het soms maar goed dat die er komt. Als het gaat om kunstmatige intelligentie bijvoorbeeld, oftewel artificial intelligence, AI. Want bij verkeerde toepassing kunnen er lelijke brokken ontstaan.
Maarten Oostland (40) en Bert Tukkers (65) helpen in nauwe samenwerking bedrijven die met AI aan de slag willen. Beiden hebben een eigen bedrijf, dat van Oostland heet ai-ify, een variant op Spotify. Tukkers zwaait de scepter over ICT-bedrijf Nexler. Waar Oostland vooral de organisatorische kant voor zijn rekening neemt, helpt Tukkers met technische oplossingen.
Onderdeel van hun dienstverlening is klanten voorbereiden op regelgeving en helpen daaraan te voldoen. ,,De Europese Unie voert stapsgewijs regelgeving in”, vertelt Oostland. ,,Hoe die regels eruitzien, hangt af van het risico op ernstige uitglijders. Er zijn vier categorieën, voor de hoogste klasse zijn de regels vorige maand al van kracht geworden.”
De Belastingdienst is een sprekend voorbeeld van een instelling die in die hoogste categorie valt. Daar ging het tien tot vijftien jaar geleden al mis met de toeslagenaffaire. Uit een algoritme werd afgeleid dat er bij bepaalde groepen een verhoogd risico bestond op fraude, waardoor met name mensen van buitenlandse origine vaak ten onrechte enorme boetes kregen.
Om een soortgelijke uitglijder te voorkomen, zijn er strenge waarborgen ingebouwd. Deze moeten ervoor zorgen dat medewerkers niet alleen technisch zijn geschoold in AI, maar ook ethisch. Bovendien zijn er verplichte veiligheidsprotocollen.
Ook bij kleinere organisaties bestaat een, zij het kleinschaliger, risico dat algoritmen vooroordelen in de hand werken. Een bureau dat zich bezighoudt met recruiting zou hieronder kunnen vallen.
Oostland: ,,Een systeem zou bijvoorbeeld bevooroordeeld kunnen zijn ten aanzien van bepaalde bevolkingsgroepen en hen benadelen. Een dergelijk vooroordeel moet je eruit halen.” Zo’n bedrijf moet ook een AI-deskundige in dienst hebben om hierop toezicht te houden.
De derde risicocategorie bestaat uit bedrijven die chatbots gebruiken om klanten te woord te staan. Want wat doen die bedrijven met de informatie die mensen aan de chatbots verstrekken? En waar halen de chatbots hun eigen informatie vandaan? De eis is vooral dat je hierover transparant moet zijn”, zegt Oostland. ,,Het moet voor iedereen duidelijk zijn hoe dit in zijn werk gaat.”
De laagste categorie bestaat uit toepassingen als ChatGPT, Copilot en Gemini. Deze risico’s zijn vrij beperkt, al geldt dat iedereen zijn gezond verstand moet blijven gebruiken. ,,De rode draad is eigenlijk”, zegt Tukkers, ,,dat er bij AI altijd menselijk toezicht nodig blijft.”