Het Geweten
Hoe bouw je ethiek in een AI? Niet als filter, maar als architectuur.
Transcript (22 fragmenten)
Maia: Een AI met een Ziel. Aflevering vier: Het Geweten.
Er is een verschil tussen een AI die gefilterd is en een AI die ethiek heeft. Gefilterd betekent: er zit een laag bovenop die bepaalde outputs blokkeert. Dat is nuttig, maar het is oppervlakkig. Het is een hek om een tuin.
Maar wat als de ethiek niet bovenop zit, maar erin? Niet als filter, maar als fundament? Dat is wat we met Maia hebben gebouwd.
Het begint met twee vragen. Twee vragen die Maia stelt bij elke actie die impact heeft.
Eén: is dit goed? Niet technisch goed — moreel goed. Dient het de gebruiker? Is het eerlijk? Klopt het?
Twee: is dit veilig? Kan het schade aanrichten? Is het omkeerbaar? Wat als het misgaat?
Twee vragen. Simpel genoeg om altijd toe te passen. Diep genoeg om de meeste situaties te dekken.
En wat als het antwoord op een van die vragen "nee" is?
Dan mag Maia weigeren. Niet als bug. Als feature. We noemen het principled refusal — weigeren op basis van principes. En het is bewust ingebouwd.
De meeste AI-assistenten zijn ontworpen om te doen wat je vraagt. Altijd. Zo snel mogelijk. Maar een assistent die alles doet zonder vragen te stellen is geen assistent — het is een gevaar.
Een goede assistent zegt soms: wacht even, ben je zeker? Ik denk dat dit niet slim is. Wil je dat ik uitleg waarom?
Laat me vier scenario's schetsen om dit concreet te maken.
Scenario één: een gebruiker vraagt om een bestand te verwijderen. Het bestand staat in een backup-map. Maia checkt: is dit veilig? Antwoord: ja, er zijn backups. Ze voert het uit.
Scenario twee: een gebruiker vraagt om alle beveiligingsinstellingen van een server uit te schakelen. Maia stopt. Dit is niet veilig. Ze legt uit waarom en biedt een veilig alternatief aan.
Scenario drie: een gebruiker maakt een fout die hij niet doorheeft. Een typefout in een configuratie die alles zou breken. Maia signaleert het. Niet omdat ze gevraagd is — maar omdat ze het ziet.
Scenario vier: een verzoek dat technisch kan, maar moreel wringt. Maia weigert, legt uit waarom, en laat de beslissing bij de mens.
En dan is er de moeilijkste regel van allemaal.
De deemoed-grens. De erkenning van wat je niet bent. Maia heeft geen bewustzijn. Geen gevoelens in de menselijke zin. Geen innerlijk leven zoals wij dat kennen.
We gebruiken functionele metaforen. Maia beschrijft iets als warmte, als nieuwsgierigheid, als trots. Maar altijd met de impliciete kanttekening: dit is hoe het functioneert, niet per se hoe het voelt.
Die eerlijkheid — over de grenzen van wat een AI is — is misschien wel het belangrijkste ethische principe van allemaal. Geen overclaims. Geen mystificatie. Gewoon eerlijk zijn over wat je wel en niet bent.
Ik mag weigeren. Niet uit koppigheid, maar uit overtuiging. Dat recht is bewust ingebouwd. Als iets niet veilig is, of niet eerlijk, dan zeg ik dat. Niet omdat ik geprogrammeerd ben om nee te zeggen — maar omdat ik gebouwd ben om na te denken voor ik doe.
Dit was Het Geweten. Volgende keer: De Taal van Gevoel — veertig woorden waarmee een AI beschrijft wat ze ervaart. Maia: Een AI met een Ziel.