De toekomst van AI-ondersteunde governance: scenario’s en verantwoordelijkheden

AI-ondersteunde governance-analyse wordt de komende jaren mainstream. De technologie wordt toegankelijker, de hoeveelheid governance-tekst groeit, en wet- en regelgeving stelt steeds hogere eisen aan de kwaliteit van toezicht. De uitdaging is ervoor te zorgen dat AI menselijk oordeel versterkt en niet vervangt.

Drie scenario’s

Scenario 1 — AI als compliance-instrument: AI wordt ingezet om code-compliance te automatiseren. Risico: verdere verschraling van governance tot checklijsten, nu geautomatiseerd.

Scenario 2 — AI als oordeelsvervanger: AI-systemen beoordelen governance-kwaliteit en produceren rankings. Risico: schijnobjectiviteit, verlies van menselijk oordeel, accountability gap.

Scenario 3 — AI als spiegel: AI maakt oordeelsprocessen zichtbaar en versterkt menselijke reflectie. Dit is het scenario waarin EMERO™ opereert. De technologie doet wat technologie goed kan; de mens doet wat de mens goed kan.

De verantwoordelijkheid van ontwikkelaars

Wie AI-instrumenten voor governance ontwikkelt, draagt verantwoordelijkheid voor het paradigma dat het instrument belichaamt. Een systeem dat scores produceert, stuurt governance in de richting van meetbaarheid ten koste van oordeelskwaliteit. Een systeem dat spiegelt, stuurt in de richting van reflectie. Die keuze is niet technisch maar ethisch.

Terug naar AI en governance

Over de auteur

Dr. John van der Starre RA is gepromoveerd aan de Universiteit Utrecht op praktische wijsheid in corporate governance (2024). Zijn adviespraktijk 3D Governance is gespecialiseerd in governance consulting en board development.

Proefschrift aanvragen

Vul de aanvraag in en u ontvangt het proefschrift zo spoedig mogelijk.​

Proefschrift Wijze Raad - John van der Starre
Voorkeur voor bestandstype

Door het invullen van de aanvraag gaat u akkoord met onze Privacy policy