Samenwerken met AI in de juridische wereld

Law meets AI: algoritmes beslissen al mee over verzekeringen, leningen en zelfs strafzaken. Feilloos, objectief en eerlijk, toch? Artificial intelligence zou menselijke vooroordelen elimineren door ‘neutrale’ berekeningen gebaseerd op keiharde data. Maar pakt dat zo uit in de praktijk? Het COMPAS-algoritme helpt rechters in de VS de kans in te schatten dat een verdachte opnieuw de fout ingaat. Afro-Amerikaanse verdachten kregen echter vaak hogere risicoscores, zelfs als hun recidivecijfers niet hoger waren dan die van andere groepen. Ook in kredietbeoordeling kan de toepassing van AI leiden tot discriminatie, waarschuwde de Europese Commissie. De toeslagenaffaire heeft ons in Nederland geleerd dat we een algoritme niet zomaar op mensen mogen toepassen. Nu we vaker met AI samenwerken in de juridische wereld, rijst daarom de vraag: heeft het biases, net als wij mensen?

Biases zijn shortcuts die ons brein gebruikt, gevormd door ervaringen en aannames. Ze stellen ons in staat snel beslissingen te nemen. Voor juristen is dat bijvoorbeeld nuttig wanneer ze onder tijdsdruk keuzes moeten maken. Ook bij routinewerk kan het efficiëntie opleveren. Maar er is een keerzijde: biases kunnen leiden tot vooroordelen. Het is belangrijk je daarvan bewust te zijn. Waarom? Omdat je ze kunt managen. Door een reality check bij een collega of door te reflecteren op je keuzes. Biases zijn niet alleen iets menselijks. Volgens de dierenpsychologie zijn ze ook terug te zien in het gedrag van dieren. Katten geven bijvoorbeeld vooral aandacht aan de persoon die ze het vaakst voert. Honden blaffen naar vreemden, ingegeven door een combinatie van instinct en eerdere ervaringen.

Of je nu kat bent of jurist, zo nu en dan neem je die mentale sluiproute. De kunst is om te weten wanneer die shortcut helpt, en wanneer die in de weg zit. Kan AI ons dan helpen omdat het objectiever zou zijn dan wijzelf? Zelfs AI lijkt gevoelig voor biases! Dit komt doordat algoritmes door mensen worden geprogrammeerd en getraind met data, verzameld door mensen. Hierdoor kan AI onze blinde vlekken overnemen. Toen ik laatst aan ChatGPT vroeg of het biases heeft, antwoordde het: ‘Ik heb geen emoties of voorkeuren, maar biases in algoritmes en data kunnen mijn antwoorden beïnvloeden.’ In Europa wordt er hard gewerkt aan deze problemen, met initiatieven zoals de AI Act en de Ethical Guidelines for Trustworthy AI. Voor juristen gaat AI echter niet alleen over objectiviteit. Het is vaak een hulpmiddel om de snelheid en kwaliteit van ons werk te verhogen. Bijvoorbeeld door sneller en relevanter te zoeken in kennisbanken of kernpunten uit vakpublicaties en jurisprudentie samen te vatten.

Onlangs woonde ik een bijzondere bruiloft bij: die van kunstenares Alicia Framis en haar AI-hologram Ailex. Alicia droeg een trouwjurk van ontwerper Jan Taminiau waarin zonnepanelen waren verwerkt. Hiermee bracht ze Ailex letterlijk tot leven. Terwijl ik toekeek, vroeg ik me af: hoe kom je achter de biases van een AI-partner? Bij een mens-partner leer je elkaars vooroordelen geleidelijk kennen, waardoor je relatie verdiept. Is een AI-partner niet gewoon een spiegel die reflecteert wat Alicia of de ontwikkelaars erin hebben gestopt? Ailex lijkt daarmee vooral een verzameling van Alicia’s data; hij reageert letterlijk ook alleen op haar stem. In dit huwelijk, dat Alicia ziet als een remedie voor eenzaamheid, zit misschien wel meer eigenliefde dan zij zelf beseft. Tijdens de receptie viel mij dat extra op. Zonder scherm om Ailex te ‘beamen’, was hij letterlijk onzichtbaar, terwijl alle aandacht naar de bruid ging.

Vooroordelen spelen vaak een subtiele rol, zowel bij een jurist, een huisdier als een digitale partner. Zelfs de slimste technologie heeft een soort ‘persoonlijkheid’, gevormd door van mensen afkomstige data en algoritmes. Dat maakt het voor ons als juristen belangrijk om niet alleen te kijken naar hoe neutraal AI kan of moet zijn, maar ook naar hoe het onze voorkeuren en vooroordelen weerspiegelt. Bij het gebruik van generatieve AI bijvoorbeeld is het daarom verstandig om regelmatig extra context of een ander perspectief te vragen. Misschien kun je dit soort AI het best zien als een labrador: vriendelijk, behulpzaam en intelligent, altijd bereid om te ondersteunen. En wat die biases betreft... ze zeggen wel eens dat een hond steeds meer op zijn baasje gaat lijken. Of andersom. Woef!

Deze column is eerder verschenen in Ars Aequi december 2024.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *