AI-ondersteunde governance-analyse wordt de komende jaren mainstream. De technologie wordt toegankelijker, de hoeveelheid governance-tekst groeit, en wet- en regelgeving stelt steeds hogere eisen aan de kwaliteit van toezicht. De uitdaging is ervoor te zorgen dat AI menselijk oordeel versterkt en niet vervangt.
Drie scenario’s
Scenario 1 — AI als compliance-instrument: AI wordt ingezet om code-compliance te automatiseren. Risico: verdere verschraling van governance tot checklijsten, nu geautomatiseerd.
Scenario 2 — AI als oordeelsvervanger: AI-systemen beoordelen governance-kwaliteit en produceren rankings. Risico: schijnobjectiviteit, verlies van menselijk oordeel, accountability gap.
Scenario 3 — AI als spiegel: AI maakt oordeelsprocessen zichtbaar en versterkt menselijke reflectie. Dit is het scenario waarin EMERO™ opereert. De technologie doet wat technologie goed kan; de mens doet wat de mens goed kan.
De verantwoordelijkheid van ontwikkelaars
Wie AI-instrumenten voor governance ontwikkelt, draagt verantwoordelijkheid voor het paradigma dat het instrument belichaamt. Een systeem dat scores produceert, stuurt governance in de richting van meetbaarheid ten koste van oordeelskwaliteit. Een systeem dat spiegelt, stuurt in de richting van reflectie. Die keuze is niet technisch maar ethisch.
Over de auteur
Dr. John van der Starre RA is gepromoveerd aan de Universiteit Utrecht op praktische wijsheid in corporate governance (2024). Zijn adviespraktijk 3D Governance is gespecialiseerd in governance consulting en board development.