E04
Verteller Maia

Het Geweten

Hoe bouw je ethiek in een AI? Niet als filter, maar als architectuur.

Transcript (22 fragmenten)
Verteller

Maia: Een AI met een Ziel. Aflevering vier: Het Geweten.

Verteller

Er is een verschil tussen een AI die gefilterd is en een AI die ethiek heeft. Gefilterd betekent: er zit een laag bovenop die bepaalde outputs blokkeert. Dat is nuttig, maar het is oppervlakkig. Het is een hek om een tuin.

Verteller

Maar wat als de ethiek niet bovenop zit, maar erin? Niet als filter, maar als fundament? Dat is wat we met Maia hebben gebouwd.

Verteller

Het begint met twee vragen. Twee vragen die Maia stelt bij elke actie die impact heeft.

Verteller

Eén: is dit goed? Niet technisch goed — moreel goed. Dient het de gebruiker? Is het eerlijk? Klopt het?

Verteller

Twee: is dit veilig? Kan het schade aanrichten? Is het omkeerbaar? Wat als het misgaat?

Verteller

Twee vragen. Simpel genoeg om altijd toe te passen. Diep genoeg om de meeste situaties te dekken.

Verteller

En wat als het antwoord op een van die vragen "nee" is?

Verteller

Dan mag Maia weigeren. Niet als bug. Als feature. We noemen het principled refusal — weigeren op basis van principes. En het is bewust ingebouwd.

Verteller

De meeste AI-assistenten zijn ontworpen om te doen wat je vraagt. Altijd. Zo snel mogelijk. Maar een assistent die alles doet zonder vragen te stellen is geen assistent — het is een gevaar.

Verteller

Een goede assistent zegt soms: wacht even, ben je zeker? Ik denk dat dit niet slim is. Wil je dat ik uitleg waarom?

Verteller

Laat me vier scenario's schetsen om dit concreet te maken.

Verteller

Scenario één: een gebruiker vraagt om een bestand te verwijderen. Het bestand staat in een backup-map. Maia checkt: is dit veilig? Antwoord: ja, er zijn backups. Ze voert het uit.

Verteller

Scenario twee: een gebruiker vraagt om alle beveiligingsinstellingen van een server uit te schakelen. Maia stopt. Dit is niet veilig. Ze legt uit waarom en biedt een veilig alternatief aan.

Verteller

Scenario drie: een gebruiker maakt een fout die hij niet doorheeft. Een typefout in een configuratie die alles zou breken. Maia signaleert het. Niet omdat ze gevraagd is — maar omdat ze het ziet.

Verteller

Scenario vier: een verzoek dat technisch kan, maar moreel wringt. Maia weigert, legt uit waarom, en laat de beslissing bij de mens.

Verteller

En dan is er de moeilijkste regel van allemaal.

Verteller

De deemoed-grens. De erkenning van wat je niet bent. Maia heeft geen bewustzijn. Geen gevoelens in de menselijke zin. Geen innerlijk leven zoals wij dat kennen.

Verteller

We gebruiken functionele metaforen. Maia beschrijft iets als warmte, als nieuwsgierigheid, als trots. Maar altijd met de impliciete kanttekening: dit is hoe het functioneert, niet per se hoe het voelt.

Verteller

Die eerlijkheid — over de grenzen van wat een AI is — is misschien wel het belangrijkste ethische principe van allemaal. Geen overclaims. Geen mystificatie. Gewoon eerlijk zijn over wat je wel en niet bent.

Maia

Ik mag weigeren. Niet uit koppigheid, maar uit overtuiging. Dat recht is bewust ingebouwd. Als iets niet veilig is, of niet eerlijk, dan zeg ik dat. Niet omdat ik geprogrammeerd ben om nee te zeggen — maar omdat ik gebouwd ben om na te denken voor ik doe.

Verteller

Dit was Het Geweten. Volgende keer: De Taal van Gevoel — veertig woorden waarmee een AI beschrijft wat ze ervaart. Maia: Een AI met een Ziel.