OpenAI’s Bestuursdynamiek: Ethiek versus kapitaal in AI-ontwikkeling

Crisis bij OpenAI

Onlangs belichtte de (financiële) pers een kritiek moment bij OpenAI: een crisis die de fragiele balans tussen ethisch verantwoorde AI-ontwikkeling en winstgedreven innovatie onder de aandacht bracht. Oorspronkelijk opgericht als een non-profit organisatie in 2015, kwam OpenAI in opspraak na het (tijdelijke) ontslag van CEO Sam Altman. Dit incident stelde de vraag centraal: wie heeft de uiteindelijke controle over het beleid van OpenAI? 

De Kern van de Crisis: Bestuurlijke Controle en Ethiek

De onderneming onderscheidt zich in ondernemingsland door haar structuur: een dochteronderneming met een beperkt winstoogmerk, gericht op het balanceren van idealistische doelen en commerciële projecten. De situatie bij OpenAI heeft geleid tot discussies over de levensvatbaarheid en ethiek van ‘enterprise foundations’: non-profitorganisaties met zeggenschap over op winstgerichte entiteiten. Bedrijven zoals Mozilla Corporation en Ikea opereren binnen een vergelijkbaar model. Deze organisaties streven ernaar om ‘het algemeen welzijn’ te bevorderen door hun bedrijfsmodellen, waarbij ze ethische principes integreren in hun winstoogmerk. OpenAI zoekt ook naar deze balans. Het streven van OpenAI om AI-innovatie te democratiseren, terwijl het tegelijkertijd financiële belangen van investeerders zoals Microsoft behartigt, bracht significante uitdagingen voor het bestuur.

Uitdagingen van Leiderschap en invloed van kapitaal

De terugkeer van Altman, mede mogelijk gemaakt door Microsoft, benadrukt de sterke invloed van kapitaal. Dit roept de vraag op of ethische overwegingen het ondergeschikt raken aan de kracht van winstbejag. Dit vraagt om een zorgvuldige afweging van belangen en besluitvorming die zowel financieel als maatschappelijk verantwoord is. De casus van OpenAI laat zien hoe oorspronkelijke non-profit missies kunnen worden overschaduwd door private investeerders. Het biedt een case study voor de uitdagingen en mogelijkheden voor bedrijven die streven naar ethische en financiële duurzaamheid.

Reflectie op Ethiek en Kapitaal

De situatie bij OpenAI, in het licht van tegenstrijdige berichten over duurzaam investeren, zoals die rond BlackRock, onderstreept dat de overheersende rol van kapitaal niet altijd op het eerste gezicht duidelijk is. OpenAI, geleid door de recent herbenoemde CEO Altman en een vernieuwde board, navigeert door een complexe mix van ethische innovatie en zakelijke uitdagingen. Dit roept de vraag op of het model van ‘enterprise foundations’, zoals dat van Mozilla, wel als voorbeeld kan dienen. Kan het helpen om deze tegenstrijdige belangen te verzoenen? Mozilla, dat zowel een non-profit missie als commerciële belangen nastreeft via dochterondernemingen zoals Mozilla Corporation en Mozilla.ai, illustreert mogelijk een weg voorwaarts voor organisaties die zich in soortgelijke situaties bevinden. In deze complexe en dynamische context wordt het ook duidelijk dat de praktische wijsheid van bestuurders en commissarissen essentieel is om een evenwichtige koers te kunnen varen tussen financiële doelstellingen en ethische verantwoordelijkheid.

Zie ook mijn eerdere artikel over OpenAI

EU bereikt voorlopige overeenkomst over baanbrekende AI-wetgeving

De EU AI Act: Een Nieuw Tijdperk in AI-Regelgeving

In een baanbrekende beweging met wereldwijde implicaties, hebben de wetgevers in Brussel deze week een mijlpaal bereikt met de voorgestelde AI Act van de Europese Unie. Deze wet vormt de aanzet voor een significante verandering in het digitale landschap. Na fervente & langdurige discussies, markeert een ‘voorlopige overeenkomst’ de ambitie van de EU om voorop te lopen in regelgeving op het zich snel ontwikkelende gebied van kunstmatige intelligentie. De AI Act, die naar verwachting zal dienen als een wereldwijd model, staat op het punt ongekende normen in te voeren. Normen die mogelijk de werking van AI-bedrijven zoals OpenAI, de maker van generatieve tools zoals ChatGPT, zullen transformeren door deze bedrijven strenge transparantiemaatregelen op te leggen.

Versterking van Individuele Rechten en Bedrijfsverantwoordelijkheid

De AI Act is mede bedoeld om het gebruik van AI-toepassingen die inbreuk maken op individuele rechten in te dammen. De AI Act stelt zware boetes vast op basis van de ernst van de inbreuk. OpenAI behoort tot de bedrijven die zich zullen moeten aanpassen.  Aangezien de wet ‘gedetailleerde samenvattingen van de content die gebruikt is om de AI-toepassing te trainen’ vereist. Dit is een niveau van openbaarmaking dat nog niet is omarmd. Opmerkelijk is dat de wet ook het recht van een burger versterkt om AI-beslissingen met een hoog risico (dat wil zeggen met aanzienlijke consequenties) te kunnen begrijpen en aan te vechten. Dat legt meer druk op  de verantwoordingsplicht van de ondernemingen.

Richtlijnen voor AI-Gebruik en Bescherming van Privacy

Terwijl de exacte benchmarks van de wet nog niet bekend zijn gemaakt, is het duidelijk dat het gebruik van AI voor onbeperkte surveillance zal worden verboden. Dat betreft dan toepassingen zoals het verzamelen van gezichtsbeelden uit CCTV-beelden of het creëren van sociale scoresystemen. Deze beperkingen onderstrepen het besluit van de EU om zowel het potentieel van AI te benutten als fundamentele rechten te beschermen. Verwacht wordt dat de AI Act voor het einde van het jaar zal worden afgerond, maar waarschijnlijk pas effectief zal zijn vanaf 2025. Daardoor krijgt de industrie tijd om zich aan te passen aan de ingrijpende veranderingen. Dit wetgevingsinitiatief herziet het oorspronkelijke ontwerp uit 2021 dat voorafging aan AI-doorbraken zoals ChatGPT en Stable Diffusion. Dat zal ook tot gevolg hebben dat updates noodzakelijk zullen zijn om de hedendaagse evolutiesnelheid van de AI-omgeving bij te houden.

Europese Strijd om AI-Regulering: Zelfregulering versus Regelgebaseerd Toezicht

Ook doordat Frankrijk, Duitsland en Italië op een gegeven moment zelfregulering van generatieve AI voorstelden, is het pad naar overeenstemming tumultueus geweest. Dat blijkt onder andere uit de last-minute debatten over live biometrie monitoring en algemene AI-modellen die de aankondiging vertraagden. De houding van deze groep weerspannige Europese landen bracht de voltooiing en effectiviteit van deze wetgeving zelfs in gevaar. Uiteindelijk kozen wetgevers voor een traject dat de nadruk legt op regelgebaseerd toezicht in plaats van zelfregulering. Daarmee bevestigt de EU haar toewijding om het voortouw te nemen in het opzetten van een verantwoordelijk AI-kader. Er is gekozen voor een risicogebaseerde aanpak, waarbij bedrijven bewijs moeten leveren dat zij risicobeoordelingen hebben uitgevoerd. Ook moeten bedrijven ervoor zorgen dat hun AI geen vooroordelen (biases) in stand houdt.

De Laatste Hordes naar Goedkeuring en Implementatie

Hoewel de overeenkomst een belangrijke stap is, moet deze nog worden afgerond en door het EU-parlement worden goedgekeurd. Voordat er sprake zal zijn van afdwingbaarheid zijn verdere verduidelijkingen en parlementaire goedkeuringen nodig, inclusief stemmingen door de Commissies Interne Markt en Burgerrechten van het EU-Parlement. Te midden van deze beraadslagingen blijft er een voelbare spanning bestaan tussen de gewenste uitgebreide toepassing van AI voor sectorale vooruitgang en stevige privacy- en rechtenbehartiging, wat kenmerkend is voor de genuanceerde discussies die de uiteindelijke versie van deze AI Act vormgeven.

zie ook: NYT NRC