Amsterdam
april 26, 2026
11 11 11 AM

Chatshaming (II): Al is de chatbot nog zo snel…

In mijn serie chatshaming voor juristen ditmaal aandacht voor nogal een blunder door nogal een Amerikaanse strafadvocaat, en behoorlijk slimme en ervaren strafadvocaat, in nogal een zaak. Het gaat om Mark Rasch, voormalig aanklager, nu advocaat van de in Amerika bekende hacker/journalist Tim Burke. Burke speurt op internet naar onbekende maar potentieel geruchtmakende video’s en verkoopt die. Rasch staat Burke bij in een voorpagina-strafzaak. Rasch blunderde met AI in die voorpagina-zaak.

Burke hackte een server met video’s van onder meer Fox News en stal videofragmenten waarin Kanye West antisemitische uitspraken deed. Burke’s advocaten Rasch en Maddox stuurden in mei 2025 een deels met AI opgesteld rekest van 26 pagina’s naar de rechtbank. De inhoud is vergelijkbaar met een Nederlands verzoek tot sepot of een bezwaar dagvaarding. De rechter haalde er een streep door en wees Rasch en Maddox in het openbaar terecht; een belangrijke uitspraak werd aangehaald met onzincitaten. Verder waren er een dozijn andere citaten die ofwel aan de verkeerde jurisprudentie was gekoppeld of volledig gehallucineerd was. Gevolg: het stuk werd volledig uit het dossier geschrapt. Weer een reputatie kapot.

AI, communicatie en verkeerde versies: wat ging er mis?

Rasch is niet de minste. Hij is voormalig openbaar aanklager en specialist in computercriminaliteit. Rasch gaf op 19 mei toe dat hij AI had gebruikt bij het opstellen van het stuk.

Mark Rasch

Hij nam alle verantwoordelijkheid op zich. In zijn verklaring gaf hij toe dat hij gebruik had gemaakt van onder meer:

  • Westlaw (inclusief AI-functies),
  • Google en Google Scholar,
  • en het ‘deep research’-systeem van ChatGPT 4.5.

De definitieve versie van de motie is niet door Westlaw Quick Check gehaald, en tijdens het redigeren werden enkele eerder gecontroleerde alinea’s per ongeluk vervangen door oude, foutieve versies. Assistenten hadden er naar gekeken maar de fouten niet ontdekt.

Rasch gaf ruiterlijk toe dat het verstandiger was geweest om extra tijd aan te vragen. Hij schreef:

“Counsel regrets not having taken this step and apologises sincerely for any inconvenience, confusion, and distrust caused to this Court, opposing counsel, and Mr. Burke.”

Rechter Mizelle nam daar genoegen mee — maar sprak wél een duidelijke waarschuwing uit: menselijke controle is essentieel, zeker als AI aan het schrijfproces heeft meegewerkt.

Wat kun je als Nederlandse advocaat van deze zaak leren?

1. Het kan de beste overkomen. Zorgvuldigheid is de sleutel

Een deel van de AI-blunders komt doordat vrij naïeve newbies een vraag stellen en het antwoord van de chatbot blind in hun stukken gebruiken zonder zich überhaupt te realiseren dat het antwoord wel eens onjuist kan zijn. Dit is een techlawyer die geacht wordt deskundig te zijn. Hij heeft verzuimd de stukken te controleren voordat ze naar de rechtbank gingen.

2. Zorg voor een kantoorbeleid

Hij heeft paralegals ingezet om het document op te stellen of te helpen te redigeren. In de communicatie is het misgegaan. Je zult als advocaat een duidelijk kader moeten hebben voor al je personeel, ook de juridisch assistenten, hoe ze met AI omgaan. Als jij als eindverantwoordelijk advocaat denkt dat je assistenten wel de laatste controles doen, en zij denken dat jij dat doet, dan is uiteindelijk niemand verantwoordelijk. Overigens ben jij als advocaat uiteindelijk wel de juridisch verantwoordelijke voor het eindresultaat, dus het gaat jouzelf aan. Communiceer vooral aan de collega’s dat het hulpmiddel is. AI wikt maar de mens beschikt.

3. Wees transparant over je werkwijze

Steeds vaker willen rechters weten hoe een processtuk tot stand komt. Noteer dus welke tools je gebruikt, welke passages gegenereerd zijn, en wie eindverantwoordelijk is. Als je publieke chatbots gebruikt (wat ik vanwege vertrouwelijkheid ernstig afraad): check alle jurisprudentie. Als een een gespecialiseerde legal chatbot gebruikt, scan dan ook de resultaten. Blijf rechtspraak.nl lezen. Ga eerst en vooral uit van je eigen brein en menselijke ervaring. Hou bij hoe je aan resultaten komt, dan leer je van je eigen fouten en van de fouten van AI.

4. Durf uitstel te vragen

Rasch gaf zelf toe dat een eenvoudig verzoek om extra tijd waarschijnlijk alle fouten had voorkomen. Zorgvuldigheid wordt door rechters vrijwel altijd hoger gewaardeerd dan snelheid. Al is de chatbot nog zo snel, de rechter achterhaalt hem wel…