Je hebt een AI-ethiekdocument. En nu?

30 april 2026

Het AI-gesprek binnen organisaties gaat de laatste tijd opvallend veel over één ding: het document. Welke principes spreken we af? Wie tekent eronder? Hoe vertalen we de EU AI Act naar onze eigen woorden? Het is een nuttig gesprek. Maar er zit een tweede gesprek onder, en dat tweede wordt zelden hardop gevoerd.

Wie handhaaft straks waar dit document over gaat? Wie merkt het als er iets misgaat, en wie belt wie als een algoritme een beslissing neemt die niemand zo bedoeld had? Bij de meeste organisaties is dat antwoord verrassend vaag. Niet omdat het niet belangrijk wordt gevonden, maar omdat het document mensen het gevoel geeft dat het al geregeld is.

Daar zit de prijs. Een ethiekdocument zonder accountability voelt als geregeld en gedraagt zich als ongeregeld. Tot iemand er feitelijk op moet handelen, en dan is het opeens stil. Een toezichthouder die vraagt wie hier verantwoordelijk was. Een klant die wordt afgewezen door een systeem dat niemand nog kan uitleggen. Een journalist die het patroon oppikt. Het document zegt het een, niemand weet het ander, en wat de inspectie ziet is geen ethiek meer, maar een organisatie die haar governance ergens in een SharePoint-map heeft achtergelaten.

Dit is een patroon dat ik bij advocatenkantoren, financiële instellingen en onderwijsinstellingen steeds vaker tegenkom. Niet uit onwil. Het document is af, alleen heeft niemand uitgewerkt wat het betekent als het erop aankomt.

Schijnethiek

Dit heet schijnethiek. Niet omdat de intentie slecht is, maar omdat er een groot verschil is tussen wat je op papier wilt en wat er gebeurt als die intentie wordt getest. Schijnethiek is wat overblijft als de principes zijn opgesteld, maar er geen mandaat onder ligt, geen ritme om ze te toetsen, en geen route voor wie iets ziet wat niet klopt. Het systeem oogt er beter van dan het is. Dat is wat het zo riskant maakt: niemand zoekt actief naar problemen, omdat het document de illusie wekt dat ze al geadresseerd zijn.

Wat ik in de praktijk dan zie, is steeds hetzelfde verloop. Er komt een werkgroep, principes worden geformuleerd, compliance kijkt mee, het bestuur tekent. Het document landt in SharePoint en het werk gaat door zoals het ging. Een document beschrijft een gewenste situatie, het detecteert geen werkelijkheid. En de werkelijkheid in een organisatie die met AI werkt, schuift continu.

Automation creep

Een van de manieren waarop die werkelijkheid schuift heet automation creep. Tussen het moment waarop je een AI-tool aanschaft als hulpmiddel en het moment waarop hij feitelijk de beslissingen neemt, zit zelden één bewust besluit. Een assisterende tool wordt een adviserend systeem, dat advies wordt zelden meer overschreven, en voor je het weet is “hulpmiddel” stilletjes “beslisser” geworden.

Het ethiekdocument staat er nog precies zoals het stond. Alleen is de praktijk eronder iets anders gaan doen, en omdat er nergens een meetmoment is ingebouwd ziet niemand het schuiven. Pas als er een klacht binnenkomt valt op dat de mens die “in the loop” zat al een halfjaar geen bezwaar meer heeft gemaakt. Niet omdat hij niets zag, maar omdat de procedure daar niet meer om vroeg.

Waar accountability wel werkt

De organisaties waar het wel werkt hebben nooit een groter document. Ze hebben iets wat eronder ligt, en dat is iets anders.

Ze hebben heldere escalatiepaden. Niet theoretisch maar concreet, dus als een medewerker twijfelt over een AI-uitkomst weet diegene bij wie hij of zij terecht kan, wat er dan gebeurt en wie er terugkoppelt. Dat klinkt basaal. Bij de meeste organisaties is het niet geregeld, en daar zit het verschil tussen een verantwoordelijkheid op papier en een verantwoordelijkheid die ook iets dóet.

Ze meten of het werkt, niet alleen of het bestaat. Hoeveel meldingen zijn er binnengekomen? Hoe vaak is de escalatieprocedure geactiveerd? Welke patronen kwamen daarbij naar boven? Als het antwoord op die vragen nul is, klopt er iets niet, want in een organisatie die actief met AI werkt zijn er altijd momenten van twijfel. Als niemand die twijfel ergens kwijt kan, zegt dat iets over de cultuur. Niet dat er geen twijfel is.

En ze accepteren dat ethiek niet af is. Het is geen project met een einddatum, maar een doorlopend gesprek over technologie die zich sneller ontwikkelt dan beleid kan bijhouden. De organisaties die dat erkennen bouwen iets wat ik vertrouwensarchitectuur noem. Een structuur waarbinnen mensen kunnen verifiëren, kunnen escaleren, en de ruimte voelen om hardop te zeggen dat iets niet klopt. Die structuur groeit mee met de systemen waar ze toezicht op houdt. Dichtgetimmerd beleid kan dat per definitie niet.

Van afvinken naar verantwoorden

De EU AI Act dwingt steeds meer organisaties om na te denken over hoe ze AI inzetten. Dat is goed nieuws. Het risico is dat compliance een afvinkexercitie wordt, zoals zoveel ethiekdocumenten dat al zijn geworden. Je voldoet aan de eisen, je hebt het papierwerk op orde, en toch is de vraag of jouw organisatie werkelijk verantwoord met AI omgaat een andere vraag dan of je voldoet aan de regelgeving. Het verschil zit niet in wat je opschrijft. Het zit in wat er gebeurt op de momenten waarop niemand toekijkt.

Technologie is een multiplier. Wat je ermee vermenigvuldigt kies je zelf, of preciezer: dat doet de structuur van je organisatie voor je. Een ethiekdocument zonder accountability vermenigvuldigt vooral het idee dat het geregeld is. In Modern leiderschap is geen algoritme schrijf ik dat echte governance daar begint waar het document ophoudt. Bij de vraag wie verantwoordelijk is, hoe je het meet, en wat er gebeurt als het misgaat.

Een eerlijke zelftest om af te sluiten: wanneer heeft iemand bij jou voor het laatst hardop gezegd dat hij twijfelde over een AI-uitkomst, en wat is daar toen mee gebeurd? Als je daar lang over moet nadenken, of als het antwoord eigenlijk “niets” is, dan ligt daar je werk. Niet in een nieuw document. In de architectuur eromheen.Hij is wel de vraag die ertoe doet.

Meer weten?

Als je verder wilt praten over dit onderwerp, meer informatie wilt ontvangen of gewoon nader kennis wilt maken, aarzel dan niet om contact met mij op te nemen.

Ik sta altijd open voor nieuwe contacten en het delen van ideeën. Ik kijk ernaar uit om van je te horen en samen nieuwe inzichten te verkennen!

Lees ook mijn andere nieuws artikelen

Risk & Compliance Jaarcongres 2025

Risk & Compliance Jaarcongres 2025

Op donderdag 5 juni 2025 vond het Risk & Compliance Jaarcongres plaats op Landgoed Groot Kievitsdal in Baarn. Het congres werd georganiseerd door Berghauser Pont Mediagroep, met als thema het spanningsveld tussen compliance, data en privacy....

Lees meer
AI-agents zijn er al, nu jij nog

AI-agents zijn er al, nu jij nog

Wat agentic AI betekent voor jouw werk, je organisatie en de keuzes die je vandaag moet maken. Onlangs verscheen op Computable een prikkelend artikel waarin Remko Reinders, directeur van Salesforce Nederland, stelt dat de technologie rondom...

Lees meer