Hoe voorkom je brokken met AI? Europa komt met nieuwe regels voor chatbots en algoritmen

Kunstmatige intelligentie roept gemengde gevoelens op. Leuk dat het ons saai werk uit handen neemt, maar hoe voorkom je dat chatbots en algoritmen met je aan de haal gaan?

Meer regelgeving. Wie wil dat nou? Toch is het soms maar goed dat die er komt. Als het gaat om kunstmatige intelligentie bijvoorbeeld, oftewel artificial intelligence, AI. Want bij verkeerde toepassing kunnen er lelijke brokken ontstaan.

Maarten Oostland (40) en Bert Tukkers (65) helpen in nauwe samenwerking bedrijven die met AI aan de slag willen. Beiden hebben een eigen bedrijf, dat van Oostland heet ai-ify, een variant op Spotify. Tukkers zwaait de scepter over ICT-bedrijf Nexler. Waar Oostland vooral de organisatorische kant voor zijn rekening neemt, helpt Tukkers met technische oplossingen.

Onderdeel van hun dienstverlening is klanten voorbereiden op regelgeving en helpen daaraan te voldoen. ,,De Europese Unie voert stapsgewijs regelgeving in”, vertelt Oostland. ,,Hoe die regels eruitzien, hangt af van het risico op ernstige uitglijders. Er zijn vier categorieën, voor de hoogste klasse zijn de regels vorige maand al van kracht geworden.”

De Belastingdienst is een sprekend voorbeeld van een instelling die in die hoogste categorie valt. Daar ging het tien tot vijftien jaar geleden al mis met de toeslagenaffaire. Uit een algoritme werd afgeleid dat er bij bepaalde groepen een verhoogd risico bestond op fraude, waardoor met name mensen van buitenlandse origine vaak ten onrechte enorme boetes kregen.

Om een soortgelijke uitglijder te voorkomen, zijn er strenge waarborgen ingebouwd. Deze moeten ervoor zorgen dat medewerkers niet alleen technisch zijn geschoold in AI, maar ook ethisch. Bovendien zijn er verplichte veiligheidsprotocollen.

Ook bij kleinere organisaties bestaat een, zij het kleinschaliger, risico dat algoritmen vooroordelen in de hand werken. Een bureau dat zich bezighoudt met recruiting zou hieronder kunnen vallen.

Oostland: ,,Een systeem zou bijvoorbeeld bevooroordeeld kunnen zijn ten aanzien van bepaalde bevolkingsgroepen en hen benadelen. Een dergelijk vooroordeel moet je eruit halen.” Zo’n bedrijf moet ook een AI-deskundige in dienst hebben om hierop toezicht te houden.

De derde risicocategorie bestaat uit bedrijven die chatbots gebruiken om klanten te woord te staan. Want wat doen die bedrijven met de informatie die mensen aan de chatbots verstrekken? En waar halen de chatbots hun eigen informatie vandaan? De eis is vooral dat je hierover transparant moet zijn”, zegt Oostland. ,,Het moet voor iedereen duidelijk zijn hoe dit in zijn werk gaat.”

De laagste categorie bestaat uit toepassingen als ChatGPT, Copilot en Gemini. Deze risico’s zijn vrij beperkt, al geldt dat iedereen zijn gezond verstand moet blijven gebruiken. ,,De rode draad is eigenlijk”, zegt Tukkers, ,,dat er bij AI altijd menselijk toezicht nodig blijft.”

Kunstmatige intelligentie moet geen brokkenmaker worden

Oostland en Tukkers ontwikkelden een tool, een GPT, die bedrijven zelf kunnen raadplegen om te zien aan welke regels ze moeten voldoen als ze AI toepassen. Ook voor andere onderwerpen kunnen zij GPT’s leveren. ,,Net als bij ChatGPT kun je met zo’n tool een soort gesprek voeren en vragen stellen. Je kunt die echter zo afstellen dat die alleen jouw eigen, interne informatie gebruikt. Als je al je dossiers op de juiste manier digitaal beschikbaar hebt, kan GPT alle informatie eruit halen.”

Maarten Oostland en Bert Tukkers werken nu ruim een jaar intensief samen. Tukkers had samen met een compagnon al eerder een ICT-bedrijf, totdat beiden besloten elk hun eigen weg te gaan. Het leidde tot de oprichting van Nexler. Oostland werkte als consultant bij Google in Amsterdam, totdat hij eraan toe was om voor zichzelf te beginnen en hij weer terug naar Groningen verhuisde.

Beiden waren gegrepen door de mogelijkheden van AI en ze besloten nauw te gaan samenwerken. Nexler en ai-ify zijn zo zusterbedrijven geworden.

Ook in hun privéleven passen ze kunstmatige intelligentie al regelmatig toe. ,,Ik moet mijn dochtertje vaak een verhaaltje vertellen”, vertelt Oostland. ,,Ik heb niet altijd zin steeds hetzelfde boekje voor te lezen en laat ik ChatGPT een verhaaltje maken, nadat mijn dochter heeft verteld wie en wat er allemaal in moet voorkomen. Is zo gepiept.”

Het doet wel wat denken aan waar hersenhoogleraar Erik Scherder voor waarschuwt. AI staat wat hem betreft voor afnemende intelligentie. We zouden onze hersenen te weinig gebruiken en ‘if you don’t use it, you lose it.’ Tukkers en Oostland moeten er wel even over nadenken. ,,Het is altijd zo geweest dat door automatisering sommige taken verdwijnen en er andere voor terugkomen”, zegt Tukkers. ,,Maar ik denk wel dat het voor mijn hersenen beter zou zijn als ik zelf verhaaltjes voor mijn dochter verzin”, geeft Oostland toe.

Maak direct een afspraak!

Benieuwd hoe wij kunnen helpen je processen met AI te automatiseren of de juiste stuurinformatie te ontsluiten? Plan direct je 1-op-1 gesprek!

Vrijblijvend adviesgesprek