AI als extra toezichthouder
Steeds vaker schuift er in RvT- en RvC-vergaderingen een extra “lid” aan tafel: een AI-assistent die meeleest, analyseert en vragen stelt waar de gemiddelde toezichthouder simpelweg de tijd of de bandbreedte niet voor heeft. Deze inzet van AI is geen technologische gimmick, maar een serieuze versterking van de toezichtfunctie, mits goed ingebed in governance, ethiek en informatiebeveiliging.
In onze praktijk onderzoeken we hoe we AI bewust kunnen inzetten als een “extra” toezichthouder, niet als vervanging van menselijke oordeelsvorming. AI helpt om de enorme hoeveelheid stukken – strategiedocumenten, risicorapportages, notulen, KPI-dashboards – te structureren, patronen te signaleren en opmerkelijke afwijkingen boven tafel te krijgen. Het bestuur en de raad benutten AI als sparringpartner om scenario’s uit te werken, alternatieve perspectieven te verkennen en de eigen blinde vlekken te ontdekken.
Daarbij blijft de kern van toezicht mensenwerk: normatieve afwegingen, prioriteren, moreel oordeel en besluitvorming blijven nadrukkelijk bij de RvT/RvC liggen.
Copilot in de beveiligde werkomgeving
In de beveiligde werkomgeving draait een Copilotachtige AI in een apart kanaal dat alleen toegankelijk is voor bestuur en de raad. Alle vergaderstukken (agenda, stukken, bijlagen, managementletters, risicorapportages) worden daar geüpload, waarna AI samenvattingen maakt, kritische vragen genereert en verbanden legt tussen verschillende dossiers.
De kracht zit in de diepgang en snelheid: AI kan in minuten door tientallen documenten gaan, inconsistenties signaleren (bijvoorbeeld afwijkende cijfers of veranderende aannames) en mogelijke risico’s benoemen die een individuele toezichthouder over het hoofd zou zien. Dat leidt tot betere voorbereiding: leden raken minder tijd kwijt aan “alles lezen” en hebben meer tijd voor de inhoudelijke dialoog: wat betekent dit, waar wringt het, wat moeten wij hier nu van vinden?
Perplexity als venster op trends en buitenwereld
Naast de interne Copilot gebruiken we een AI‑assistent (zoals Perplexity) in een afgeschermde omgeving, waarin eigen data wordt gekoppeld aan externe bronnen. Bestuur en de raad kunnen binnen die omgeving vragen stellen als: “Welke ontwikkelingen rond AI in bedrijfsvoering en in de zorg zijn relevant voor ons consultancybedrijf in de komende drie tot vijf jaar?” of “Hoe gaan vergelijkbare organisaties om met verdienmodellen, diensten outsourcen en consultancy in relatie tot toezicht?”
AI combineert interne beleids- en strategiestukken met publieke bronnen, onderzoeken, wetgeving en sectortrends en presenteert een samengevat beeld met verschillende scenario’s en risico’s. Zo ontstaat een veel rijker contextbeeld: toezicht wordt minder terugkijkend en meer toekomstgericht, met expliciete aandacht voor innovatie, digitalisering, arbeidsmarkt, kwaliteit en maatschappelijke verwachtingen.
Wat AI beter (en anders) kan dan de gemiddelde toezichthouder
AI is in deze opzet geen supermens, maar heeft wel enkele duidelijke voordelen.
- Omvang: AI kan zonder moeite grote hoeveelheden tekst, cijfers en bijlagen tegelijk analyseren en patronen zien over meerdere vergadercycli heen.
- Consistentie: AI vergeet niets; eerdere afspraken, ratio’s, risico’s en scenario’s zijn direct terug te halen en te spiegelen aan nieuwe stukken.
- Neutraliteit: AI kent geen belangen, moeheid of agenda; dat helpt om “domme vragen” te stellen die in de vergadering soms onuitgesproken blijven.
De combinatie is interessant: de mens brengt ervaring, context, waarden en politieke sensitiviteit in, terwijl AI helpt om scherper, vollediger en consequenter te kijken.
Nieuwe vormen van tegenspraak en reflectie
Door AI expliciet als extra toezichthouder te positioneren, krijg je nieuwe vormen van tegenspraak.
- Vooraf aan de vergadering kan AI een “kritische vragenlijst” genereren bij elk agendapunt: wat ontbreekt, welke risico’s lijken onderbelicht, welke aannames zijn zwak onderbouwd?
- Tijdens evaluaties van het eigen functioneren kan de raad AI gebruiken om patronen in besluiten, risicodossiers en thematiek te analyseren: waar hebben we structureel te laat gereageerd, welke onderwerpen verdwijnen steeds van de agenda, hoe vaak komen kwaliteit en veiligheid terug ten opzichte van financiën?
Zo wordt AI onderdeel van de governancecultuur: niet alleen controle, maar continu leren en spiegelen.
Randvoorwaarden: ethiek, veiligheid en rolzuiverheid
De inzet van AI in de RvT en RvC vraagt om duidelijke spelregels.
- Privacy en informatiebeveiliging: alle verwerking moet plaatsvinden in een strikt afgeschermde omgeving, met heldere afspraken over datagebruik, bewaartermijnen en toegang.
- Transparantie: bestuur en raad moeten weten dát AI wordt gebruikt, wat daarmee gebeurt en hoe deze input wordt gewogen in het toezicht.
- Rolafbakening: AI levert input, geen besluiten; de raad bewaakt dat de eindverantwoordelijkheid en het morele oordeel nooit worden “uitbesteed” aan technologie.
Door die voorwaarden scherp vast te leggen in reglementen, informatieprotocollen en de jaarlijkse zelfevaluatie van de raad, blijft AI een versterking van de toezichtfunctie in plaats van een black box die het werk overneemt.
In deze opzet groeit AI uit tot een volwaardig onderdeel van modern toezicht: een extra paar ogen en hersenen dat helpt om informatie slimmer te benutten, de dialoog te verdiepen en tegenspraak beter te organiseren, terwijl het laatste woord altijd bij het bestuur en de raad zelf blijft.
Deel dit bericht:
Ontdek meer over AAG
Bekijk onze expertises en klantcases of lees meer over ons!