Artikel bewaren

Je hebt een account nodig om artikelen in je profiel op te slaan

Login of Maak een account aan
Reacties0

Van radioloog tot verzekeringsarts: we kunnen niet meer om AI heen

Ger Dreijer
Tijdens de NVVG heidag op 26 september 2025 deelde radioloog dr. Martijn Boomsma zijn ervaring met Artificial Intelligence (AI). Gezondheidsjurist prof. mr. Corrette Ploem plaatste de ontwikkelingen in een juridisch kader. De conclusie: AI biedt kansen, maar stelt ook grenzen, niet alleen voor verzekeringsartsen, maar voor de gehele (sociale) geneeskunde. En het is belangrijk dat de beroepsgroep nu zelf het stuur pakt.
© FAMILY STOCK / Stock.adobe.com

Wie gebruikt AI? De handen gaan omhoog. Betaalde versies van ChatGPT, Perplexity, spraak-naar-tekst tools… een aantal verzekeringsartsen experimenteert al volop. Ze vatten gesprekken samen en laten zich informeren over medische achtergronden. De vraag is niet meer óf AI een rol gaat spelen in de verzekeringsgeneeskunde, maar hoe we daar als beroepsgroep professioneel mee omgaan.

Dat is precies waarom radioloog Martijn Boomsma van Isala en gezondheidsjurist Corrette Ploem van Amsterdam UMC zijn uitnodigd voor de heidag van de NVVG. Boomsma vertelt hoe zijn vakgroep al vijf jaar met AI werkt. Ploem legt uit welke juridische kaders daarbij gelden. De mogelijkheden van AI zijn talrijk, maar alleen als de professional zelf de regie houdt.

Geen vervanging

‘Ik zie AI niet als Artificial Intelligence, maar als Augmented Intelligence,’ stelt Boomsma. Voor hem draait het om de samenwerking tussen mens en machine, niet om vervanging. Sinds 2020 gebruikt Isala onder andere het Aidoc Artificial Intelligence-platform ter ondersteuning bij het beoordelen van beeldvorming. Voor het detecteren van hersenbloedingen, longembolieën, fracturen van de cervicale wervelkolom, perfusie van de hersenen en detectie van cerebrale occlusies in het kader van ‘beroerte’-diagnostisering en ook hersenaneurysmata.

AI is nooit moe

Het systeem werkt effectief. AI analyseert scans en signaleert snel verdachte afwijkingen. ‘AI zegt niet: hier is een bloeding, maar: kijk hier eens naar, dit wijkt af,’ legt Boomsma uit. Die constante alertheid is de toegevoegde waarde. ‘Computers zijn nooit moe of afgeleid. Wij wel. In een nachtdienst met veel telefoontjes is er een kans dat ik iets mis. AI functioneert altijd op hetzelfde niveau.’

Ultieme droom

Het onderzoek naar de nauwkeurigheid van Aidoc dat Isala met promovendi en de Universiteit Utrecht deed, laat indrukwekkende resultaten zien. Voor longembolie-detectie haalt AI een significant betere score dan de radioloog. Met sensitiviteit en specificiteit van respectievelijk 96,8 en 99,9 procent versus de radioloog van 91,6 en 99,7 procent, bij respectievelijke p-waardes van 0,001 en 0,035. De ultieme droom van iedere AI-fabrikant, aldus Boomsma.

Maar de belangrijkste conclusie na zes jaar research, is dat AI samen met de radioloog nog altijd het beste resultaat levert. De AI kan het niet alleen. Mag dat ook niet. AI mist ook weleens wat, zoals bij fractuurdetectie van de cervicale wervelkolom bleek. Daar deed de radioloog het beter. Ook ontbeert het systeem de noodzakelijke menselijke intelligentie die ‘iets’ doet met de context. Zoals de achtergrond van de patiënt en het ziektebeloop. De radioloog kijkt letterlijk en figuurlijk naar het brede plaatje. Dat kan AI niet.

Kosten gaan omhoog

Boomsma waarschuwt voor de illusie dat AI de zorg kosten bespaart. Isala bekeek de economische effecten retrospectief en constateerde 0,3% méér kosten. ‘Als je meer diagnoses stelt, ga je meer behandelen. Dat kost geld.’ Bovendien is er kans op overbehandeling, doordat AI zo nauwkeurig ‘iets’ detecteert, waarvoor achteraf misschien geen behandeling nodig was.

Ook is de software niet bepaald gratis. Het kost Isala jaarlijks ongeveer zoveel als een halve radioloog.

Moet passen in workflow

En de implementatie? Die duurt bij radiologie gemiddeld drie jaar. Van aankoop tot daadwerkelijk gebruik in de workflow. ‘Het moet naadloos in je proces passen,’ benadrukt Boomsma. ‘Als ik eerst computers moet opstarten en zeven minuten moet wachten op een resultaat, dan gebruik ik het niet. Ik versla daarvoor te veel foto’s en scans per dag.’

Daarnaast zijn er risico’s die serieus aandacht vragen. Zoals ‘de-skilling’: radiologen die gewend raken aan AI verliezen sneller hun basisvaardigheden. Maar ook ‘automatiseringsbias’: het risico dat professionals alleen nog naar de AI-uitslag kijken. Dat kan niet. De eerste generatie radiologen die met AI is opgeleid, moet straks ook zonder kunnen werken als het systeem uitvalt.

Juridische kanttekeningen

Corrette Ploem bespreekt het juridische kader voor AI in de verzekeringsgeneeskunde. De zaal reageert verrast: ook de meer administratieve AI-tools, zoals ChatGPT, kunnen onder de Medical Devices Regulation (MDR) vallen. ‘Als je AI gebruikt bij het samenvatten van een gesprek voor medische beoordeling, val je mogelijk onder de MDR. Het hoeft niet alleen om diagnose of besluitvorming te gaan.’

Europese AI-wet

Daarnaast is er de Europese AI-Act die augustus 2024 in werking trad. Die classificeert systemen in vier risiconiveaus. Gezondheidszorg valt bijna altijd in niveau 3: hoog risico. Dit betekent dat er strikte eisen zijn aan risicomanagement, data governance en documentatie. Belangrijk is het principe van menselijk toezicht. ‘AI mag geen autonome beslissingen nemen. Professionals moeten kunnen ingrijpen en het systeem kunnen stopzetten.’

Voor verzekeringsgeneeskundigen roept AI praktische vragen op. Moet een cliënt geïnformeerd worden over AI-gebruik? Mag iemand weigeren? Waar worden data opgeslagen en wat betekent de inzet van AI voor het medisch beroepsgeheim? Veel vragen zijn nog onbeantwoord.

Wetten en praktische bezwaren

Aan de andere kant nuanceert Ploem: ‘In de radiologie vragen ze ook niet standaard toestemming voordat ze AI inzetten bij diagnostiek. Het hangt af van de context, de betrouwbaarheid en de proportionaliteit.’ Maar bij verzekeringsgeneeskunde ligt dat mogelijk anders. De Wet medische keuringen, de WGBO en wetgeving rond sociale verzekeringen stellen misschien andere eisen aan het gebruik van AI.

Een ander discussiepunt is validatie. Mag een verzekeringsarts een CE-gemarkeerd AI-systeem zomaar gebruiken? ‘Ook bij AI met een CE-markering moet je eerst evalueren of het voldoet aan je professionele standaard,’ stelt Ploem. ‘Met wetenschappelijk onderzoek en gedragscodes van de beroepsgroep moet die standaard geborgd zijn.’

Wat kan verzekeringsgeneeskunde met AI?

De parallellen met radiologie liggen niet voor de hand. Hoewel ook verzekeringsgeneeskundigen te maken hebben met werkdruk en gebaat zijn bij efficiency en effectiviteit, gaat het hier niet om het herhaald beoordelen van beeld. Toch kan AI de verzekeringsgeneeskunde helpen bij het structureren van dossiers, prioriteren van complexe beoordelingen en verbeteren van consistentie.

Van chatbot tot verlengde arm

Concrete mogelijkheden komen boven tijdens de discussie. Genoemd zijn: het samenvatten van medische informatie, het gebruik van chatbots als ‘verlengde arm’ bij intake. Dat is vergelijkbaar met het afnemen van vragenlijsten door niet-medisch geschoolde medewerkers verzuimbeheer, zoals nu al gebeurt. Of een database met eerdere beoordelingen om de kans op interdoktervariatie te verminderen. Ook vertaalfuncties voor anderstalige cliënten worden genoemd.

Gouden standaard

Boomsma noemt een belangrijke voorwaarde. ‘Jullie hebben een gouden standaard nodig. Net zoals wij duizenden scans opnieuw met AI beoordeelden om het kwaliteitsniveau te bepalen. Zonder goede database geen betrouwbare AI.’

En moeten we de AI zelf ontwikkelen? Boomsma: ‘Nederland is te klein om zelf AI voor jullie specifieke vakgebied te ontwikkelen. Dat is aan de industrie. Maar de klinische adoptie en eventuele adaptatie, zorgen dat het werkt in jullie praktijk, dat is jullie verantwoordelijkheid.’

Niet af laten schrikken

Hoe zit het dan met die wetten en praktische bezwaren die tussen droom en daad staan? Ploem: ‘Veel discussies over AI gaan over problemen die al langer bestaan. Bias in de zorg, gebrek aan consistentie, privacyrisico’s. AI maakt ze meer prominent en zichtbaarder, maar creëert ze niet. Benader AI niet te veel als gevaarlijk vanwege allerlei theoretische risico’s, terwijl er evidente praktische problemen liggen die AI kan helpen oplossen.’

Aan de slag

Aan het eind van de middag is de oproep helder. Er is behoefte aan een AI-taskforce vanuit de NVVG. De taken liggen voor het oprapen: inventariseren waar AI kan helpen (inclusief gluren bij de buren), wetenschappelijk onderzoek opzetten naar effectiviteit, gedragscodes ontwikkelen, zorgen dat implementatie verantwoord gebeurt.

Boomsma sluit af met een dringend advies: ‘Als je niet zelf het initiatief neemt, gaan anderen voor je beslissen.’

Ger Dreijer is tekstschrijver en journalist

Geef je reactie

Om te kunnen reageren moet je ingelogd zijn. Heb je nog geen
account, maak dan hieronder een account aan.
Lees ook de spelregels.