De toepassing van AI in governance-evaluatie roept vier ethische vragen op: transparantie (weet de raad wat er gebeurt?), privacy (hoe worden gevoelige documenten verwerkt?), niet-normativiteit (spreekt het systeem een oordeel uit?) en menselijke eindverantwoordelijkheid (wie beslist wat er met de resultaten gebeurt?).
Transparantie
De raad die wordt geanalyseerd moet volledig geïnformeerd zijn: wat wordt er geanalyseerd, hoe werkt het systeem, wie ziet de resultaten, en wat gebeurt er met de data. EMERO™ werkt uitsluitend met expliciete instemming van de raad. Verrassingsanalyses of analyses zonder medeweten zijn onverenigbaar met het spiegelprincipe.
Privacy en dataverwerking
Governance-documenten bevatten gevoelige informatie: strategische overwegingen, personele kwesties, financiële posities. De verwerking moet voldoen aan AVG-vereisten. De resultaten zijn eigendom van de raad, niet van de analist of het platform. Data wordt niet gedeeld, niet gebruikt voor training van AI-modellen, en niet bewaard langer dan noodzakelijk.
Niet-normativiteit
Het systeem mag geen normatief oordeel uitspreken. Het verschil tussen “deze dimensie is ondervertegenwoordigd” en “u functioneert onvoldoende” is ethisch cruciaal. Het eerste is een observatie; het tweede is een oordeel dat bij de mens hoort. EMERO™ hanteert consequent het eerste.
Menselijke eindverantwoordelijkheid
De AI ondersteunt het oordeel maar vervangt het nooit. De raad beslist wat er met de analyse gebeurt: of het profiel wordt besproken, welke interventies er volgen, en of de analyse wordt herhaald. Die verantwoordelijkheid is niet delegeerbaar aan een systeem.
Over de auteur
Dr. John van der Starre RA is gepromoveerd aan de Universiteit Utrecht op praktische wijsheid in corporate governance (2024). Zijn adviespraktijk 3D Governance is gespecialiseerd in governance consulting en board development.