Er is een patroon dat ik in elke sector terugzie. Bij advocatenkantoren, bij financiele instellingen, bij onderwijsinstellingen. De technologie is er. De licenties zijn betaald. De training is gegeven. En dan verwacht iedereen dat het nu gaat werken.
Maar het werkt niet. Of beter: het werkt op papier. De gebruikscijfers zien er redelijk uit. Mensen loggen in, ze openen de tool, ze voeren queries uit. Wat de cijfers niet laten zien is dat vrijwel niemand echt iets anders doet dan voorheen. De tool wordt gebruikt voor het veilige werk. Taken die ze al beheersen. Documenten die ze ook zonder AI hadden geschreven.
En dit patroon beperkt zich niet tot AI. Ik zie het bij cybersecurity: de firewall staat, de monitoring draait, maar medewerkers melden incidenten niet omdat ze bang zijn voor de reactie. Ik zie het bij data soevereiniteit: de cloud-migratie is technisch geslaagd, maar niemand in de organisatie begrijpt wat de afhankelijkheid betekent of welke keuzes er gemaakt zijn. Het echte werk, het experimenteren, het kritisch nadenken, het durven loslaten van oude werkwijzen, dat gebeurt niet. En de reden is bijna nooit technisch.
De reden is dat niemand het gesprek heeft gevoerd.
De vraag die niemand stelt
Niet de presentatie over de nieuwe tool en niet de FAQ op intranet. Maar het echte gesprek over wat technologische verandering voor het team betekent, over de zorgen die mensen hebben maar niet uitspreken, over de vraag die ik in elke sessie eronder hoor zitten: wat betekent dit voor mij?
Wat ik steeds vaker merk: de inhoudelijke vragen over de EU AI Act, over risicocategorieen en compliance-verplichtingen, die komen wel. Maar de vraag die eronder zit, “wat betekent dit voor mijn baan?”, wordt zelden hardop gesteld. Die komt pas na afloop, in de wandelgangen.
Bij cybersecurity is het vergelijkbaar. De technische vragen over zero-trust architectuur en endpoint detection worden keurig besproken. De vraag “durf ik te melden dat ik op die link heb geklikt?” blijft onuitgesproken. Bij data soevereiniteit idem: de architectuurkeuze wordt op boardniveau genomen, maar niemand vraagt het team wat het betekent dat ze afhankelijk worden van systemen die ze niet begrijpen.
Die vragen negeren is de duurste fout die je als organisatie kunt maken. Niet alleen omdat het onethisch is, maar omdat mensen die onzeker zijn niet meewerken. Ze doen alsof. Ze vullen de enquete in, volgen de training, en doen daarna precies wat ze altijd deden.
Cultuur als onzichtbare versneller of rem
Technologie is een multiplier. Het versterkt wat er al is in je organisatie. En dat geldt niet alleen voor processen, het geldt ook voor cultuur.
Als je cultuur zegt “maak geen fouten, escaleer bij twijfel, wees voorzichtig”, dan versterkt AI precies dat gedrag. Mensen worden niet productiever, ze worden voorzichtiger. Ze checken elk AI-resultaat drie keer. Ze gebruiken het alleen voor dingen die ze al weten. Bij cybersecurity versterkt diezelfde cultuur het zwijgen over incidenten. Bij data-vraagstukken versterkt het de neiging om de veiligste optie te kiezen in plaats van de beste.
In organisaties met een cultuur van openheid en experimenteren zie ik het omgekeerde. Teams die zelf toepassingen ontdekken. Medewerkers die incidenten melden omdat ze weten dat de reactie constructief is. Leidinggevenden die eerlijk zeggen: “Ik begrijp dit ook niet volledig, laten we het samen uitzoeken.”
Dat is wat ik automation bias noem in organisatorische context. Niet alleen de technische neiging om algoritmische adviezen minder kritisch te beoordelen dan menselijke. Maar de bredere organisatorische druk om het systeem te volgen, de standaardoptie te kiezen, het protocol te volgen, in plaats van je eigen oordeelsvermogen te gebruiken. Hoe meer technologie je inzet, hoe belangrijker het wordt dat mensen het vertrouwen en de ruimte hebben om kritisch te blijven.
Wat de organisaties die het wel laten werken anders doen
De organisaties waar ik het meeste verschil zie, doen iets dat simpel klinkt maar moeilijk is: ze maken ruimte voor het ongemakkelijke gesprek. Ze vragen hun team niet “heb je de training gedaan?” maar “wat maakt je onzeker?” Ze reageren op de eerste fout niet met restricties maar met: “Wat heb je geleerd?”
Dat geldt voor AI, voor cybersecurity en voor elke andere technologische verandering. Het patroon is steeds hetzelfde.
Wat deze organisaties ook gemeen hebben: er is bijna altijd iemand die de brug slaat tussen technologie en werkpraktijk. Iemand die de taal van IT spreekt en de taal van het team. Die de technische mogelijkheden vertaalt naar wat het voor het dagelijks werk betekent. Die rol wordt zelden formeel benoemd, maar is bijna altijd doorslaggevend. Zodra die persoon wegvalt, merk je het direct.
En er is nog iets. De organisaties die het goed doen, behandelen governance niet als een juridisch project met een einddatum. Ze bouwen wat ik vertrouwensarchitectuur noem: structuren waarbinnen mensen zelf kunnen verifiereen, zelf kunnen beoordelen, zelf kunnen beslissen. Niet “vertrouw het systeem”, maar “begrijp het systeem goed genoeg om er kritisch mee samen te werken.”
Dat vraagt leiderschap. Niet het leiderschap van de boardroom-presentatie, maar het leiderschap van de werkvloer. De bereidheid om te luisteren naar wat mensen niet vanzelf zeggen. De discipline om te investeren in vertrouwen voordat je investeert in technologie.
In mijn boek Modern leiderschap is geen algoritme noem ik dit de kern van zaaiend management: investeren in de bodem voordat je plant. De organisaties die dat doen, halen meer uit dezelfde technologie. Niet omdat hun tools beter zijn, maar omdat hun mensen beter samenwerken met die tools. En dat geldt voor elke technologie, niet alleen voor AI.
Vier dingen die je deze maand kunt doen
Voer het echte gesprek. Niet in een vergadering, maar een-op-een of in een klein team. Stel de vraag: “Wat maakt je onzeker over de technologische veranderingen in je werk?” En luister. Echt luisteren, niet meteen oplossen.
Kijk naar je reactie op fouten. Hoe reageerde je organisatie op de laatste fout die iemand maakte met AI, of op het laatste beveiligingsincident? Was het een incident of een leergelegenheid? Dat antwoord vertelt je alles over je cultuur.
Identificeer je vertaler. Wie in je organisatie slaat de brug tussen technologie en werkpraktijk? Is dat formeel belegd, of is het iemand die het er “bij doet”? Als die persoon morgen vertrekt, heb je een groter probleem dan je denkt.
Stel de governance-vraag anders. Niet “wat moeten we regelen?” maar “hoe willen wij als organisatie omgaan met technologie?” Het eerste levert een rapport op. Het tweede levert een kompas op.
De menselijke kant van technologie is geen bijzaak. Het is de hoofdzaak. Of het nu gaat om AI, om cybersecurity of om data soevereiniteit: technologie kun je kopen. Vertrouwen moet je bouwen.




