Amsterdam
april 26, 2026
11 11 11 AM

Chatshaming (V): twee Amerikaanse techkneus-rechters in de fout

Niet alleen je luie zoontje, je stomme dochtertje of een zogenaamd slimme advocaat besteedt het liefst het huiswerk uit aan AI. Nieuw bewijs: er zijn ook domme rechters/rechtbankgriffiers. Alleen in de Verenigde Staten, dat spreekt.

Wingate

Afgelopen juli van dit jaar trok de Amerikaanse federale rechter Henry Wingate (District of Mississippi) een uitspraak in over diversiteitsbeleid in het onderwijs. Het vonnis zat vol fouten: verwijzingen naar partijen die niets met de zaak te maken hadden, “feiten” die nooit waren gesteld, en paragrafen die leken te horen bij een ander dossier. Hier vind je zijn hersteluitspraak.

Wingate noemde het allemaal clerical errors referencing improper parties and factual allegations — een ambtelijke manier om te zeggen: “het is een puinhoop geworden”. Daarna deed hij iets geks: hij verving de uitspraak door een “gecorrigeerde versie”, maar weigerde uit te leggen hoe de fouten waren ontstaan of de oorspronkelijke tekst vrij te geven. Zijn verklaring: “No further explanation is warranted.” (Reuters, 4 augustus 2025).

Net zoiets speelde in New Jersey. Het lag iets genuanceerder, er stond per ongeluk een conceptuitspraak al in het roljournaal die daar niet in had moeten staan. De rechter Julien Xavier Neals trok die in. Het was een vergissing: volgens een bron van Reuters bij de rechtbank had een invalgriffier met AI een concepttekst gemaakt die nog niet was gecontroleerd. (Reuters, 6 oktober 2025).

Tips voor AI in de rechtspraak

Laat ik helder zijn: ik wens rechters een uitstekende AI-assistent toe. Tenminste als zij en andere gebruikers zich bewust zijn van de valkuilen. Ik vind rechters en griffiers die nuttig gebruik van AI onderzoeken niet dom, ik vind het dom als je daarna verstoppertje gaat spelen en dat je niet nagedacht hebt over de valkuilen.

  1. AI is eenzijdig
    • Veel juridische AI-assistenten zoeken uitspraken en genereren teksten op basis van gelijkenis. De gelijkende uitspraken kunnen achterhaald zijn. De gelijkende uitspraken kunnen bevestigen wat de rechter toch al vindt en de nuance van het andere accent missen. Het is fijn, zo’n presenteerblaadje met uitspraken, maar vermijd denkluiheid – confirmation bias.
  2. AI kan zich enorm vergissen. Ook juridische AI-assistenten. Controleer steeds de gepresenteerde links.

Wat moet je doen als rechter (of als experimenterende advocaat?)

  1. Als je met nieuwe software experimenteert, bewaar de logs. Fouten? Zoek uit wat er misging. Was het je prompt? Is het de informatie? Faalt de techniek? Zo word je van een onnozele en goedgelovige gebruiker een sluwe en ervaren AI-jurist.
  2. Leg verantwoording af. Gaat het fout, duik niet onder. Zeg gewoon: het werk is op een verkeerde manier uitgevoerd. We zullen als rechtbank nagaan of de protocollen voor veilig werken met AI zijn toegepast. Bedenk nu al een communicatieplan, want geloof me, dit gaat een keer verkeerd, ook in Nederland. Wet van Murphy.
  3. Wacht niet te lang. Doe iets, Nederlandse rechtbanken! De Rechtspraak heeft inmiddels een rechtspraakstrategie. Ik denk dat je bij ieder gerecht een paar juristen/rechters zou moeten hebben die het komende jaar op een voorzichtige manier met chatbots experimenteren – veilige, afgeschermde legal chatbots. Lang wachten geeft risico’s, omdat er rechters en griffiers zijn die dan toch zullen experimenteren met ChatGPT, Claude etc. en dat zal een keer fout gaan.
  4. De spannende vraag is natuurlijk of je die juridische chatbots voor de overheid allemaal in eigen huis gaat ontwikkelen, door overheidsingenieurs op eigen servers. Risico: dat rechtbanken, ministeries, gemeenten, de Belastingdienst straks allemaal hun eigen duurontwikkelde chatbot hebben. Of niet, de overheid is niet per se goed in ICT-projecten. Of ga je de technologie extern inhuren van een commerciële partij die werkt met beveiligde servers en onder strikte garanties aan de overheid een afgeschermde Europese datadienst aanbiedt. Afweging: misschien niet in Nederland of met strikt Nederlandse AI. Hoe soepel of streng ben je als Nederlandse overheid met datasouvereiniteit? En moet het Europese, Hollandse of eigen-organisatie-datasouvereiniteit zijn? Mogen Word en Google wel, maar Copilot of een legal AI zoekbot niet?

NB: ik heb deze tekst met AI gegenereerd en voor tweederde herschreven. Links heb ik gecontroleerd. Fouten die er desondanks in zouden staan zijn de mijne, niet van AI: dan had ik maar beter moeten nadenken.