Eén onderwerp, namelijk artificiële intelligentie, beheerste het derde congres van de advocaten voor slachtoffers van personenschade ASP,
op 6 juni 2025 in Congrescentrum Antropia in Driebergen-Rijsenburg. En de hoofdvraag daarover luidde: wat wil het slachtoffer: empathie of AI? Vier inhoudelijk deskundigen lieten er hun gedachten over gaan. Het congres werd geleid door historicus en journalist Coks Donders.
ASP-voorzitter Edwin Bosch opende het congres met een welkomstwoord. Om de toon te zetten met betrekking tot het congresthema citeerde Bosch Letselschade.nu: “Tiener pleegt zelfmoord op aanmoediging van chatbot; AI-bedrijf aansprakelijk?” Bosch: “Die fundamentele vraag naar aansprakelijkheid is voor ons niet nieuw, die beantwoorden we dagelijks. Maar nu roept die vraag wel heel veel nieuwe deelvragen op. Het antwoord op die deelvragen vinden zal ons de komende jaren ongetwijfeld gaan bezighouden. De SER publiceerde op 22 mei jongstleden een advies over AI in het werk. Kansen te over, zeker, maar de SER benadrukt ook de noodzaak van verantwoord gebruik van AI. Wat betekent dat voor ons vak en voor de manier waarop we ons werk doen? Kan AI de kwaliteit van ons werk verbeteren en mogelijk de schaderegeling versnellen? Of staat het gebruik van AI juist haaks op datgene waar het in ons vak om draait: empathie, vertrouwen en menselijkheid? Vandaag gaan we daarover met elkaar in gesprek, niet vanuit een defensief, maar vanuit nieuwsgierigheid en verantwoordelijkheid.”
Juridische AI-assistent
Martijn Doornbos is mede-oprichter van LegalMike: een AI-assistent voor de analyse van juridische casussen, het onderzoeken van rechtsbronnen en het geven van adviezen op grond daarvan. Doornbos legde uit hoe het taalmodel van ChatGPT werkt en wat de mogelijkheden en beperkingen ervan zijn. Hij benadrukte dat de kennis van ChatGPT niet actueel en niet volledig is, omdat het trainen van de technologie op een bepaalde datum wordt afgesloten. Het model waarmee het grote publiek momenteel werkt, is tot oktober 2023 bijgewerkt en is dus verouderd. Doornbos wees erop dat alle data die via de prompts (de vragen en opdrachten met bijlagen) in die gratis publieksversie worden ingevoerd, voor verdere training van ChatGPT worden gebruikt. Wie dat niet wil, moet een abonnement nemen. Het model waarvoor dan wordt betaald, is bovendien veel krachtiger dan de publieksversie. “Maar hoe ga je dan om met het beroepsgeheim?” vervolgde hij. “Hoe ga je om met persoonsgegevens en vertrouwelijke informatie? Ons advies is: anonimiseer vooralsnog alle informatie in de prompts. Bedenk dat de dataverwerking in de VS plaatsvindt en dat we met een onvoorspelbare president hebben te maken. Maar misschien nog wel belangrijker: wij vermoeden dat de Nederlandse orde van advocaten zal gaan dicteren dat anonimiseren verplicht is, tenzij je in een gesloten omgeving werkt. En met ChatGPT is dat niet het geval.” Martijn Doornbos besprak vervolgens een hele reeks praktische toepassingen in de juridische praktijk, waaronder het strategisch sparren. Hij gaf het voorbeeld van een advocaat die een dossier in een veilige omgeving van ChatGPT had ingeladen, met de vraag erbij: welke vragen gaat de rechter mij mogelijkerwijs stellen? “Daar kwamen tien vragen uit, de ene nog interessanter dan de andere, waarvan er verschillende inderdaad door de rechter werden gesteld”, aldus Doornbos.
Dekkingsassistent
Pepijn van Unen, programmamanager Strategie & Innovatie van de afdeling Personenschade van Nationale-Nederlanden, gaf eveneens een uitgebreid overzicht van de toepassingsmogelijkheden van ChatGPT: het samenvatten en archiveren van e-mails met bijlagen (uitgezonderd medische informatie, die een andere route volgt), het controleren en verbeteren van Optical Character Recognition (bijvoorbeeld van handgeschreven aanrijdingsformulieren), het inrichten van een kennisbank (gebaseerd op interne documenten, met name jurisprudentie en eigen richtlijnen) en ook het vaststellen of er in een bepaald dossier dekking is of niet. “De dekkingsassistent”, noemde Van Unen deze toepassing, “met een nadruk op assistent, omdat we er de behandelaar mee willen helpen.” De dekkingsassistent gaat na of de premie is betaald, of de aanrijding binnen de verzekeringsperiode is gemeld, of de auto door de gerechtigde bestuurder werd bestuurd enzovoort, en dit dan voor de verschillende merken, met verschillende polisvoorwaarden, waarvoor de afdeling als letselschadeservicecenter opereert. “Het vaststellen van de aansprakelijkheid zou dan een vervolgstap kunnen zijn”, aldus Pepijn van Unen, “maar dat is natuurlijk een veel lastiger thema om dat in AI te vangen. We doen daarvoor wel de eerste vingeroefeningen, maar alleen al de AVP is een dusdanig groot gebied, laat staan de AVB, dat het dan veel lastiger is om de juiste uitspraken te krijgen.” Een laatste toepassing bij Nationale-Nederlanden is ILSA: de intelligente letselschade-assistent voor licht letsel, waarmee per casus een reservering kan worden voorgesteld. “We kunnen in slechts een beperkte mate in de toekomst kijken”, besloot Pepijn van Unen, “maar dan is al te zien, dat we met ontzettend veel zaken aan de slag moeten. Er is al genoeg te doen voordat we met z’n allen een vervolgstap zetten.”
Gevaren van AI
Mark van Dijk, adviseur innovatie en kwaliteit bij Flyct, legde in zijn bijdrage een nadruk op de gevaren van AI. In strijd met de AVG handelen, is zo’n risico, “maar misbruik dit argument niet omdat u eigenlijk helemaal geen zin in die nieuwerwetse technologie hebt”, zei Van Dijk. Aandachtspunten zijn ook dat AI foute informatie kan opleveren, de creatieve vermogens van mensen kan afstompen en zich zo snel kan ontwikkelen dat de gebruiker, maar bijvoorbeeld ook de wetgever het tempo niet kan bijbenen. Toch mag dit alles geen reden zijn om AI niet te omarmen, aldus Van Dijk. “Discussieert u nu met de behandelaar bij de verzekeraar, dan gaat het met uw kennis en de kennis die u kunt opzoeken tegen de kennis van de behandelaar en wat die kan opzoeken. Met AI echter gaan verzekeraars veel meer kennis krijgen, doordat zij uit alle lopende en afgewikkelde dossiers data kunnen halen die u niet hebt, maar waarmee u wel wordt geconfronteerd. Ik kan me voorstellen dat u zo op achterstand komt te staan.” Mark van Dijk zei in zijn afronding te hopen dat de efficiencywinst door het gebruik van AI niet voor meer werk met minder mensen wordt aangewend, maar voor meer inzet om contact met mensen te hebben, mensen in nood te helpen en empathie te tonen. “Als de vaktechniek wat minder belangrijk wordt, moeten we juist dat aspect gaan vergroten”, zo zei hij.
Uitdagingen
Niek Baarsma is trainer bij Saxion Academie Mens & Arbeid Kennistransfer. Hij enthousiasmeert studenten en professionals met zijn visie op kunstmatige intelligentie en de ethische vraagstukken die daarbij horen. Ook Baarsma sprak over de efficiencywinst door AI. Hij schat dat hij momenteel 30 à 40 procent van zijn taken geautomatiseerd met AI laat uitvoeren. “Lagere maatschappelijke kosten, een verhoogde omzet, verbetering van kwaliteit en betrouwbaarheid, grotere mogelijkheden voor werknemers met beperkingen – mits goed gebruikt is dit alles inherent aan de revolutie met dit soort technieken”, aldus Baarsma. Hij benadrukte het belang van goede prompts en raadde de aanwezigen aan ermee te spelen, bijvoorbeeld door ChatGPT een andere rol te geven (“Stel je bent rechter in een deelgeschilprocedure”), door de noodzaak van een goed antwoord te overdrijven (“Iemands leven hangt ervan af!”), door een verdieping te vragen (“Waarom is dit advies belangrijk?”) of door de prompt negatief te formuleren (“Bedenk vijf tegenwerpingen”). Baarsma: “Controleer ook of AI de context begrijpt. Tik aan het einde van je prompt: begrijp je wat ik vraag, zo ja leg het uit en zo niet vraag dan door.”
Niet neutraal
ASP liet in haar derde congres, net als in de twee voorgaande congressen, ook slachtoffers aan het woord, aan het begin van de dag en aan het einde ervan. Met name de afsluitende presentatie van Narda Teke-Bozkurt wierp nog een nieuw licht op het congresthema artificiële intelligentie. Narda Teke is ASP-letselschadeadvocaat, maar ook ervaringsdeskundige van de toeslagenaffaire. Op basis van de toepassing van AI, in de vorm van algoritmes, werd zij net als tienduizenden anderen ten onrechte van kwade bedoelingen beticht. Nu staat zij 180 medeslachtoffers bij in hun pogingen hun recht te halen. “Moeten we in dit soort situaties AI blijven gebruiken?” vroeg Narda Teke zich af. “AI is niet neutraal, maar wordt versterkt door vooroordelen. Als advocaten zijn wij de brug tussen de burgers en het systeem. Wij moeten ook als we geen verstand van AI en algoritmes hebben, toch proberen een en ander goed in onze vingers te krijgen, zodat we een eventuele schade goed inzichtelijk kunnen maken. AI heeft zijn voordelen, maar in het geval van de toeslagenaffaire hebben we ook de nadelen goed kunnen zien.”
Nog een al haast traditioneel onderdeel van het ASP-congres is de uitreiking van de ASP-scriptiepris. Deze prijs is ingesteld om jong juridisch talent aan te moedigen en onderzoek naar de positie van slachtoffers in het recht te stimuleren. De prijs ging dit jaar naar Pien Larue. Zij is masterstudent aan de Vrije Universiteit Amsterdam en onderzocht, begeleid door August Van, of en hoe schadevorderingen van slachtoffers in massa-letselschadezaken kunnen worden gebundeld onder de Wet afwikkeling massaschade in collectieve actie (WAMCA).