Wat gebeurt er als mensen proberen AI een geweten te geven?
De huidige governance van kunstmatige intelligentie is grotendeels gebaseerd op een top-down benadering, met standaarden zoals ISO-systemen en beleidsdocumenten. Hoewel deze bijdragen aan verantwoord gebruik, schieten ze tekort in het sturen van daadwerkelijk AI-gedrag in de praktijk. Ze reguleren organisaties, maar niet wat AI doet wanneer niemand meekijkt. Tegelijkertijd hebben organisaties beperkte controle over AI-modellen van grote spelers zoals OpenAI en Google.
Het bedrijf Ordinary Wisdom introduceert een nieuwe, ‘inside-out’ aanpak, gericht op het internaliseren van waarden binnen AI-systemen. Deze aanpak vult vier cruciale hiaten: feedforward (vooraf sturen via kennisbronnen zoals literatuur), feedback (corrigerende mechanismen bij fouten), governance (contextspecifieke regels via ‘sub-constituties’) en monitoring (consistent gedrag zonder toezicht).
Door AI te voeden met menselijke wijsheid, zoals klassieke literatuur, ontstaat meer cultureel en ethisch samenhangend gedrag. Feedbacksystemen corrigeren fouten aan de randen van kennis, terwijl governance wordt afgestemd op specifieke toepassingen.
Deze benadering verschuift de focus van externe controle naar interne afstemming. Het doel is AI die niet alleen voldoet aan regels, maar intrinsiek consistent en betrouwbaar handelt – alsof het een vorm van ‘geweten’ heeft ontwikkeld.
Deze samenvatting is gemaakt met behulp van AI. Het origineel is te vinden op garp.org