Onze jurist heet ChatGPT of Claude en onze eigen wil lijkt zoek

Generatieve AI klinkt graag als een professional, maar ‘gedraagt’ die zich ook als een professional? Met ChatGPT en dergelijke lijkt deskundig advies voor iedereen binnen handbereik. Zeg maar: je eigen arts, psycholoog of jurist op afroep. De antwoorden komen in keurige volzinnen, met precies die rust en stelligheid die bij mensen vertrouwen wekken. Gaat het mis? Onder elke conversatie staat de digitale variant van: ‘mij niet bellen’. In de staat New York ligt daarom een wetsvoorstel op tafel. Senate Bill S7263 maakt aanbieders aansprakelijk voor geleden schade wanneer hun systemen zó hebben geadviseerd dat die in feite de rol van bijvoorbeeld een advocaat of arts overnamen.

Het probleem is niet alleen dat AI vaak als een professional klinkt, maar dat wij ons door GenAI anders gaan gedragen. Het heeft zich bijvoorbeeld in onze schrijfstijl genesteld. Zo ben ik iets anders gaan schrijven, omdat ik niet wil klinken alsof een taalmodel mijn zinnen heeft voorgekauwd. De em dash, de liggende streepjes, heb ik bijvoorbeeld voorlopig in de ban gedaan. In eerste instantie zijn menselijke teksten gebruikt om taalmodellen te trainen. Daarna zijn schrijvers hun stijl gaan bijstellen om niet op GenAI te lijken. De omgekeerde wereld! De ‘kopie’ corrigeert nu het origineel. Ik zit bij het schrijven dus niet alleen meer met de lezer in mijn hoofd, maar ook met de lichte paniek dat een zin net iets te glad is. De vraag is niet alleen meer wat ik zou willen zeggen, maar ook of het nog menselijk genoeg overkomt.

Ook in de toegang tot het recht gaat GenAI invloed krijgen. Het WODC onderzocht of burgers hun weg naar het recht weten te vinden (Geschilbeslechtingsdelta burgers 2024, 17 maart 2026). Daaruit blijkt dat juridische problemen iets zijn toegenomen, terwijl minder mensen actie ondernemen om die problemen op te lossen. In het onderzoek komt nog niet naar voren dat burgers eerst GenAI raadplegen, in plaats van naar een advocaat, notaris of het Juridisch Loket te gaan. In de notariële praktijk zien we intussen dat die stap al wordt gezet. De cliënt komt geregeld niet alleen met wensen binnen, maar ook met een voorafgaand gesprek met ChatGPT of Claude op zak.

Neem een testament als voorbeeld. Voordat de cliënt de notaris spreekt, heeft deze met ChatGPT wellicht al een voortraject afgelegd. Bij een testamentbespreking zitten er bijna altijd meer ‘stemmen’ aan tafel dan alleen die van de testateur. Denk aan familieverhoudingen, afhankelijkheid, eenzaamheid, vermoeidheid, dankbaarheid en rancune. Maar nu schuift er misschien nog een ‘stem’ aan. De notaris probeert al die stemmen te ontdekken. Wat is hun invloed op de wil van de testateur?

Maar GenAI lijkt geen wil te hebben: ChatGPT wil niets erven; Claude wil niemand onterven. Ze hebben geen voorkeur voor de buurvrouw en geen oud zeer met de kinderen. De notaris moet beoordelen of een testateur vrij en onafhankelijk tot zijn uiterste wil is gekomen. Wij kennen allemaal de praktijk van beïnvloeding, alleen had die tot nu toe meestal een gezicht en vaak ook een naam. De dominante partner. De neef met een warme belangstelling voor testateurs bankrekening. GenAI voegt daar nu aan toe: beïnvloeding zonder eigen belang. En sturing zonder sociale aanwezigheid. Soms helpt een taalmodel een cliënt om gedachten te ordenen of wensen beter onder woorden te brengen. Maar zit daarin niet ook het probleem, is ordenen wel helemaal neutraal? Wie keuzes ordent doet daarmee suggesties voor wat redelijk of gebruikelijk is, en werkt zo ongemerkt mee aan de vorming van de uiterste wil.

Uiteindelijk kom ik uit bij een juridische vraag. Aan welke wil verbinden we rechtsgevolgen? Zestien Nederlandse gemeenten gaan natuurbelangen een ‘wil’ geven bij de besluiten die zij nemen. Een rivier kan namelijk niet spreken, maar wel schade lijden. GenAI is het spiegelbeeld. Die spreekt continu, maar heeft geen belang en geen verantwoordelijkheid. En daartussenin staat de mens, die op zich autonoom zou kunnen zijn, maar intussen zijn stijl aanpast aan taalmodellen, zijn juridische vragen aan systemen voorlegt en misschien zelfs zijn uiterste wil laat vormen door die systemen. Dan is het de vraag niet of AI een wil heeft. Dan is het de vraag hoeveel van onze wil nog van onszelf is!

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *