Artificial Intelligence kan governance versterken door oordeelsprocessen zichtbaar te maken die voor menselijke waarneming verborgen blijven. De sleutel is het onderscheid tussen AI die oordeelt en AI die spiegelt. EMERO™ hanteert het tweede model: de technologie analyseert taalpatronen in governance-documenten en maakt die zichtbaar, maar spreekt geen normatief oordeel uit. De interpretatie en het gesprek blijven menselijk.
AI in de boardroom: kans en risico
De toepassing van artificial intelligence in corporate governance staat aan het begin. De belofte is aanzienlijk: AI kan patronen herkennen in grote hoeveelheden tekst die menselijke lezers ontgaan, consistentie bieden waar menselijke beoordelaars variëren, en analyses reproduceren die handmatig maanden zouden kosten.
Tegelijkertijd zijn de risico’s reëel. AI-systemen die governance-oordelen automatiseren — die bepalen of een raad “goed” of “slecht” functioneert op basis van data — ondermijnen precies wat governance-kwaliteit uitmaakt: menselijk oordeel in context. De vraag is niet óf AI een rol speelt in governance, maar wélke rol.
Het cruciale onderscheid: AI die oordeelt vs. AI die spiegelt
Dit onderscheid is fundamenteel voor de ethische toepassing van AI in governance.
AI die oordeelt neemt een normatieve positie in: het systeem bepaalt wat goed of slecht is, produceert scores en rankings, en reduceert het complexe oordeelsproces tot een cijfer. Dit model is verleidelijk — het biedt schijnbare objectiviteit en vergelijkbaarheid — maar het miskent dat governance-kwaliteit niet reduceerbaar is tot een algoritme. Wanneer AI het oordeel overneemt, verschuift de verantwoordelijkheid van de mens naar het systeem, en verdwijnt precies de reflectie die oordeelskwaliteit definieert.
AI die spiegelt neemt geen positie in maar maakt zichtbaar. Het systeem analyseert taalpatronen, identificeert dominante en afwezige dimensies, en presenteert het resultaat als een profiel — maar de interpretatie, de betekenisgeving en het gesprek blijven bij de raad. Dit model versterkt menselijk oordeel in plaats van het te vervangen.
EMERO™ hanteert consequent het spiegelmodel. De technologie doet wat technologie goed kan — systematisch, consistent en reproduceerbaar patronen herkennen in tekst — en laat aan mensen wat mensen goed kunnen: in context beoordelen wat die patronen betekenen. AI als spiegel, niet als rechter
Taalanalyse met AI: hoe het werkt
De AI-component in EMERO™ is toegepaste natural language processing (NLP). Het systeem verwerkt governance-teksten op basis van een propriétair lexicon van circa 1.660 wisdommarkers, verdeeld over de vijf dimensies van praktische wijsheid. De NLP-laag identificeert taalpatronen, telt frequenties, berekent intensiteitsscores en genereert het EMERO-profiel.
Belangrijk: de AI in EMERO™ is geen generatieve AI. Het systeem genereert geen tekst, geen adviezen, geen aanbevelingen. Het analyseert bestaande tekst en maakt patronen zichtbaar. Dat is een bewuste ontwerpkeuze: generatieve AI in governance-evaluatie zou het risico introduceren van AI-gegenereerde oordelen die als objectief worden gepresenteerd maar dat niet zijn. Hoe NLP werkt in EMERO
Ethische overwegingen
De toepassing van AI in governance roept ethische vragen op die serieus genomen moeten worden. Vier daarvan zijn voor EMERO™ specifiek relevant.
Ten eerste: transparantie. De raad die wordt geanalyseerd moet weten dat de analyse plaatsvindt, begrijpen hoe het systeem werkt, en inzage hebben in de resultaten. EMERO™ werkt alleen met expliciete instemming van de raad.
Ten tweede: privacy. Governance-documenten bevatten gevoelige informatie. De verwerking moet voldoen aan AVG-vereisten, en de resultaten zijn eigendom van de raad, niet van de analist.
Ten derde: niet-normativiteit. Het systeem mag geen normatief oordeel uitspreken. Een EMERO-profiel zegt: “deze dimensie is ondervertegenwoordigd in uw oordeelsproces” — niet: “u functioneert onvoldoende.” Het verschil is cruciaal.
Ten vierde: menselijke eindverantwoordelijkheid. De AI ondersteunt het oordeel maar vervangt het nooit. De raad beslist wat er met de analyse gebeurt. Ethiek van AI in toezicht
Toekomstperspectief
De verwachting is dat AI-ondersteunde governance-analyse de komende jaren een vaste plek krijgt in het instrumentarium van raden van commissarissen. De technologie wordt toegankelijker, de hoeveelheid governance-tekst groeit, en de behoefte aan objectiveerbaarheid neemt toe naarmate codes en wet- en regelgeving meer eisen stellen aan de kwaliteit van toezicht.
De uitdaging is ervoor te zorgen dat die ontwikkeling het goede pad volgt: AI die menselijk oordeel versterkt, niet vervangt. EMERO™ is ontwikkeld vanuit die overtuiging.
Verder lezen
→ AI als spiegel, niet als rechter
→ Toekomst van AI in governance
Dr. John van der Starre RA is gepromoveerd aan de Universiteit Utrecht op praktische wijsheid in corporate governance (2024). Zijn adviespraktijk 3D Governance is gespecialiseerd in governance consulting en board development.