Rechter vraagt chatbot om advies bij beoordelen rechtszaak (en ik vroeg niet aan ChatGPT of dat verstandig was)


Een rechter in Colombia heeft ophef veroorzaakt door de chatbot ChatGPT om advies te vragen bij het beoordelen van een zaak over de medische kosten van een autistische jongen. Dat meldde RTL Nieuws onlangs. Als hij “autisme minderjarige vrijstelling therapie vergoeding” in een juridische zoekmachine had getypt, had niemand er wat van gevonden, maar omdat hij er een vraagzin van maakte en het antwoord in essayvorm terugkreeg, is het een ding.

Of nou ja. ChatGPT is natuurlijk geen AI in de zin van intelligentie: het is een voorspellend algoritme, dat op basis van statistiek bepaalt wat het gaat zeggen. ChatGPT snapt dus geen jurisprudentie, maar zou bijvoorbeeld afgaan op Colombiaanse blogs en daaruit een vaak voorkomend antwoord destilleren. Als je ChatGPT vraagt of je als veertienjarige een krantenwijk mag, dan zal het antwoord “ja” zijn, want dat is wat de meeste sites zeggen. Dat dit antwoord juist is, is mooi meegenomen maar voor ChatGPT in het geheel niet relevant.

Bij iets als therapievergoedingen voor minderjarige autisten naar Colombiaans recht zul je evenzo al snel uitkomen bij juridische loketten, verenigingen voor ouders van autisten en ga zo maar door. Die lezen de wet en wat de uitvoeringsinstantie erover zegt, en parafraseren dat op vele manieren voor de doelgroep. Daaruit kan ChatGPT dan prima halen dat het modale antwoord is “ja, een minderjarige is vrijgesteld”, en dat dan in juridische taal. Of het klopt, is dus irrelevant – ChatGPT heeft data tot 2021 en zou dus een wetswijziging van vorig jaar zomaar gemist hebben.

Zou het in Nederland mogen? Nou ja, je mag als rechter prima je vonnis baseren op een sjabloon, of voor standaardkwesties een standaardfrase gebruiken. Bij ieder vonnis waarin bijvoorbeeld de uitingsvrijheid botst met de privacy, krijg je eerst een riedel dat grondrechten gelijkwaardig zijn en dat de HR toen en toen heeft gevonnist dat de afweging op basis van alle omstandigheden van het geval moet. En dat is prima: die frase klopt, zet het juiste kader en is dan ook gewoon wat je verwacht in zo’n vonnis. Waarom zou een robot dat niet in iets uitgebreidere vorm mogen oplepelen?

We hebben het in het verleden gehad over googelende rechters: je mag feiten niet zomaar uit openbare bronnen vissen zonder ze aan de partijen voor te leggen voor hun reactie. Dus als je dat pas bij het vonnissschrijven gaat doen, dan ben je te laat. Maar let wel: het gaat in dat oordeel over feiten, niet over rechtsregels die je op die feiten loslaat. Het hele punt van een rechter is dat die het recht toepast, en zelf opzoeken wat de wet zegt en dat op de feiten betrekken is dus gewoon toegestaan. Ook als de partijen niet bedacht hadden dat dat wetsartikel relevant kon zijn.

Naar Nederlands recht zie ik dus niet meteen een probleem met wat deze rechter deed, zeker omdat hij vervolgens de tekst wel redigeerde en daarmee tot zijn eigen werk maakte. Plagiaat in een vonnis is volgens mij niet echt een ding, ik zou als rechter geen probleem zien in copypasten uit een collega haar vonnis als dat stuk goed past bij mijn eigen zaak. Zolang je maar de feiten goed hebt en de rechtsregels toepast zoals de wet voorschrijft. En dat is hier goed gegaan.

Arnoud



https://blog.iusmentis.com/2023/02/10/rechter-vraagt-chatbot-om-advies-bij-beoordelen-rechtszaak-en-ik-vroeg-niet-aan-chatgpt-of-dat-verstandig-was/