Toezicht houden in het AI‑tijdperk: van angst en onwetendheid naar bewuste keuzes

Kunstmatige intelligentie is in korte tijd doorgedrongen tot vrijwel alle sectoren – van zorg en onderwijs tot gemeentelijke dienstverlening. Waar AI jarenlang een technologie “van morgen” leek, is het nu onmiskenbaar onderdeel van de dagelijkse praktijk. Tijdens de sessie GoedeMorgenCommissaris van 21 januari 2026 gingen Maurice Eykman, Marco Florijn en Vincent van Stijn in gesprek over wat dit betekent voor commissarissen en toezichthouders: hoe blijf je bij, waar liggen de risico’s en hoe organiseer je verantwoord toezicht?

• AI beïnvloedt organisaties al ingrijpend, vaak zonder dat bestuur of toezicht het doorheeft.
• Verantwoord toezicht begint bij AI‑geletterdheid en strategisch doorvragen.
• Angst en onwetendheid verdwijnen door gecontroleerd te experimenteren en AI structureel te bespreken.

AI is al overal – ook als de organisatie denkt van niet

Marco Florijn schetste hoe snel AI organisaties binnendringt, vaak zonder dat daar een expliciet besluit aan voorafgaat. Veel toezichthouders zien AI “opeens” op de agenda verschijnen, terwijl kennis en inzicht nog beperkt zijn. AI wordt inmiddels verwerkt in alledaagse applicaties, van documentverwerking tot zoekmachines, waardoor bestuurders en toezichthouders vaak onderschatten hoeveel AI er al wordt gebruikt. Uit onderzoek blijkt dat ruim 70% van medewerkers AI‑tools inzet zonder dit te melden, wat illustreert hoe diffuus het gebruik is. Vincent van Stijn benadrukte dat ontkennen of verbieden geen haalbare strategie meer is: “Verbieden of doen alsof het er niet is, dat is niet de realiteit.” Daarmee verschuift de vraag niet naar óf AI wordt gebruikt, maar naar hoe organisaties het verantwoord en veilig inzetten.

Case: een algoritme dat discrimineerde zonder dat iemand het zag

Een illustratief voorbeeld uit de sessie betrof een digitale matchingtoepassing die werkte met een zelflerend algoritme. Het systeem ontwikkelde zich op basis van voorkeuren van de eerste gebruikers, die nauwelijks profielen van mensen van kleur selecteerden. Het algoritme versterkte dit patroon en toonde dergelijke profielen vrijwel niet meer. Omdat de toepassing ogenschijnlijk goed presteerde, bleef dit lange tijd onopgemerkt. Pas na externe toetsing werd duidelijk dat het systeem discriminerende effecten had ontwikkeld en dat er onvoldoende toezicht had plaatsgevonden. De casus laat zien hoe snel een model zich kan verwijderen van de oorspronkelijke bedoeling wanneer geen menselijke toets is ingebouwd. Het toont ook hoe risicovol het is wanneer AI‑toepassingen niet expliciet worden besproken binnen het governance‑ritme. Zoals een van de sprekers zei: “Het liep allemaal soepel, maar niemand vroeg door over wat het systeem precies deed.” Dit benadrukt dat toezichthouders moeten kijken naar aannames, datagebruik en beslislogica, en niet alleen naar prestaties.

Verantwoordelijkheid, regelgeving en AI‑geletterdheid

De Europese AI‑wet maakt duidelijk dat organisaties verantwoordelijk zijn voor een zorgvuldige, transparante inzet van AI. Dat betekent dat bestuur en toezicht inzicht moeten hebben in waar AI wordt gebruikt, welke risico’s dit met zich meebrengt en hoe deze risico’s worden beheerst. Voor toezichthouders vraagt dat niet om technische expertise, maar wel om voldoende AI‑geletterdheid om de juiste vragen te stellen, de werking van systemen te begrijpen en ethische en juridische implicaties te herkennen. Vincent van Stijn verwoordde het kernachtig: “Je mag onwetend zijn, maar je moet wél doorvragen.” Tegelijkertijd verplicht de AI‑wet organisaties om medewerkers adequaat te trainen. Dat vereist een cultuur waarin veilig gebruik van AI vanzelfsprekend is, en waarin bestuurders voldoende zicht hebben op informeel gebruik van AI‑tools door medewerkers. Marco Florijn wees erop dat dit vaak ontbreekt, terwijl AI in toenemende mate een governance‑vraagstuk is. De snelheid van technologische ontwikkelingen en de zichtbaarheid van AI‑gebruik dwingen toezichthouders tot proactief handelen: AI is geen technisch detail, maar integraal onderdeel van goed ondernemingsbestuur.

Grip krijgen via een algoritmeregister

Een manier om meer zicht te krijgen op de inzet van AI is het werken met een algoritmeregister. Daarin worden alle toepassingen waarin AI een rol speelt vastgelegd, inclusief doel, datagebruik en risico’s. Volgens Vincent van Stijn helpt dit toezichthouders te begrijpen welke systemen bewust zijn ingevoerd en welke juist “onder de radar” in gebruik zijn genomen door medewerkers. Het register vormt daarmee een waardevolle basis voor gesprekken over risicobeheersing, datalocatie en proportionaliteit. Tegelijkertijd werd benadrukt dat een algoritmeregister nooit een volledig beeld zal geven. Informeel gebruik van publieke of onbetaalde AI‑tools blijft vaak onzichtbaar, hoe zorgvuldig registratie ook wordt georganiseerd. Een register biedt dus inzicht, maar vervangt geen kritische dialoog, morele afweging of doorvragende rol van de toezichthouder. Uiteindelijk blijft effectief toezicht afhangen van nieuwsgierigheid, kennisontwikkeling en het vermogen om lastige vragen te blijven stellen.

Het 4AIM‑model als kader voor governance

In het boek Toezichthouder in het AI‑tijdperk introduceren Marco Florijn en Esther van Egerschot het 4AIM‑model: een governance‑raamwerk dat toezichthouders helpt AI gestructureerd te beoordelen. De eerste pijler, Aandacht en afbakening, richt zich op de vraag waar de grenzen van technologie liggen en welke datalocaties acceptabel zijn. De tweede pijler, Inzicht en intentie, gaat in op de bedoeling achter AI‑toepassingen: wordt hiermee impact vergroot of vooral bespaard? De derde pijler, Mensen en mechanismen, benadrukt dat er altijd duidelijk moet zijn wie de “noodstop” kan indrukken en hoe menselijke toetsing geborgd blijft. De vierde pijler, Agenderen, informeren, monitoren en reflecteren, legt vast dat AI minstens twee keer per jaar op de agenda hoort, aangevuld met themasessies. Of zoals Florijn het formuleerde: “Je hoeft het niet allemaal te weten, maar je moet wel de morele grenzen bepalen.”

Angst, onkunde en de rol van de toezichthouder

In veel organisaties bestaat zowel angst als onkunde rond AI. In sectoren als onderwijs en zorg loopt het gebruik door studenten of medewerkers soms ver vooruit op het begrip van professionals. Daardoor ontstaat snel de reflex om AI te willen vermijden of verbieden. Van Stijn pleit juist voor het gesprek tussen alle lagen van de organisatie, zodat AI verantwoord kan worden geïntegreerd en gebruikers leren hoe zij het veilig en effectief inzetten. Tegelijkertijd maakt AI‑toezicht het vak van commissaris interessanter. Het vraagt niet om technische specialisatie, maar om nieuwsgierigheid, kritisch denken en een scherp moreel kompas – precies de eigenschappen die goed toezicht kenmerken.

Toezicht op AI begint met vragen durven stellen

De sessie laat zien dat toezicht houden in het AI‑tijdperk niet draait om technische vaardigheden, maar om governance, morele reflectie en gestructureerde aandacht. AI verandert organisaties snel, en wegkijken is geen optie. Hoewel niemand alle antwoorden heeft, is één conclusie helder: toezichthouders die nieuwsgierig zijn, doorvragen en AI structureel agenderen, geven hun organisatie een duidelijke voorsprong in een tijdperk waarin technologische ontwikkelingen de norm bepalen.

Voor meer informatie over ons wekelijks actualiteitenprogramma GoedeMorgenCommissaris zie hier.