Artikel bewaren

Je hebt een account nodig om artikelen in je profiel op te slaan

Login of Maak een account aan
Reacties0

Behoud van autonomie bij AI-gebruik

Stefan Buijsman 
Kunstmatige intelligentie (AI) wordt steeds meer gebruikt op de werkvloer. Wat doet dat met onze mogelijkheid om autonoom beslissingen te nemen? We hebben in kaart gebracht waar op gelet moet worden om die autonomie te behouden. Daarvoor begonnen wij met een filosofische analyse van het begrip autonomie. We herkennen daarin twee elementen: (1) competent kunnen handelen op basis van (2) je eigen, authentieke waarden.
© wladimir1804 / Stock.adobe.com

Daarvoor begonnen wij met een filosofische analyse van het begrip autonomie. We herkennen daarin twee elementen: (1) competent kunnen handelen op basis van (2) je eigen, authentieke waarden.Vervolgens is met een exploratieve literatuurstudie gekeken naar de manieren waarop deze elementen onder druk kunnen staan bij AI gebruik.

Kunstmatige intelligentie (AI) wordt steeds meer gebruikt op de werkvloer. Wat doet dat met onze mogelijkheid om autonoom beslissingen te nemen? We hebben in kaart gebracht waar op gelet moet worden om die autonomie te behouden. Daarvoor begonnen wij met een filosofische analyse van het begrip autonomie. We herkennen daarin twee elementen: (1) competent kunnen handelen op basis van (2) je eigen, authentieke waarden. Vervolgens is met een exploratieve literatuurstudie gekeken naar de manieren waarop deze elementen onder druk kunnen staan bij AI gebruik.

Competent handelen

Alhoewel AI beloofd om ons tot meer in staat te stellen, zijn er twee effecten waardoor dat bij te directe ondersteuning juist wordt ondermijnd. Ten eerste is in een breed scala aan empirische studies aangetoond dat het in de praktijk lastig is om te bepalen wanneer een AI-systeem wel of geen goed advies geeft. In tegenstelling tot veel andere technologie ontbreekt het bij AI meestal aan duidelijke indicatoren dat de uitkomst (on)betrouwbaar is. Het gevolg is dat onder andere artsen ofwel blind het systeem opvolgen, ofwel alsnog doen wat ze zelf al deden. Als voorbeeld van dat laatste vond een onderzoeksgroep in Stanford dat ChatGPT weliswaar betere diagnoses kan stellen (90 vs 74 procent correct) dan 50 artsen op eigen kracht (op basis van vignetten – korte teksten over een patiënt), maar dat artsen die gebruik maken van ChatGPT het even goed of slecht deden als artsen die werkten met gebruikelijke hulpbronnen zoals PubMed. Empirische studies over effectieve samenwerking, waarbij de mens de fouten van het systeem corrigeert, zijn in de literatuur eigenlijk niet te vinden.

Ten tweede zijn er steeds meer studies die vinden dat mensen de vaardigheden die door AI worden ondersteund verleren. Artsen en andere besluitvormers worden minder zeker en minder capabel in het maken van beslissingen (zoals het stellen van een diagnose) na AI-ondersteuning. In The Lancet is bijvoorbeeld een studie gepubliceerd die vond dat endoscopisten al na drie maanden ondersteuning van een AI-tool voor kankerdetectie significant slechter waren in het zelfstandig detecteren van gezwellen (van een detectie rate van 28,4 procent naar een van 22,4 procent gemeten over 1443 patiënten). Met AI-steun bleef het percentage op 28,4 procent, maar het verbeterde dus niet.

Daarnaast leren studenten minder effectief nieuwe vaardigheden aan als ze tijdens het leerproces toegang hebben tot AI-ondersteuning. MIT https://www.media.mit.edu/publications/your-brain-on-chatgptvond in een studie met 54 studenten dat de studenten die artikelen schrijven waarbij ChatGPT een eerste versie levert zo’n 50 procent minder hersenactiviteit toonden, en één minuut na het inleveren niet meer wisten wat er in het artikel stond. Het goede nieuws is dat studenten die eerst zelf een versie hadden geschreven en het later met ChatGPT verbeterden wel alert en kritisch bleven.

Authenticiteit bewaken

Als laatste blijkt uit een aantal studies dat interactie met AI ervoor kan zorgen dat de waarden van de gebruiker veranderen. Mensen gaan net als ChatGPT praten en kunnen vooroordelen overnemen die in de systemen zijn ingebakken. Zo vond een studie dat we fouten overnemen van AI-systemen. Leken werden gevraagd een ‘medische’ diagnose te stellen door te beoordelen of er meer donkere of meer lichte cellen op een plaatje stonden. Bij AI-ondersteuning die in het kader van dit onderzoek zo was ontworpen dat een verkeerde diagnose werd gesteld bij een 40/60 verhouding corrigeerden de deelnemers dit niet, en ze deden het zelf ook fout wanneer het AI-systeem was uitgezet.

Meer waarden-gedreven zien we dat ook politieke standpunten onbewust kunnen verschuiven door interacties met AI: onder 1506 online deelnemers bleek dat hun opvatting over social media (of deze wel of niet goed zijn voor de samenleving) veranderde afhankelijk van wat ChatGPT aan teksten voor ze produceerde, ook in de survey na afloop van het experiment. Alhoewel lange termijn onderzoeken naar de sterkte van deze effecten nog ontbreekt, bestaat het risico dat interacties die horen te ondersteunen je waarden onbewust veranderen.

Hoe nu verder?

Het vraagt om bewuste keuzes voordat je werktaken laat ondersteunen door AI-systemen. Vermijd systemen die een taak uitvoeren waar daarna kritische reflectie op nodig is. AI ondersteunt vooral effectief als het een rol heeft die werk echt uit handen neemt, zoals bij zorgverzekeraars waar nu een deel van de claims volledig automatisch wordt goedgekeurd. Bedenk goed welke vaardigheden essentieel zijn, bijvoorbeeld om verantwoordelijkheid te kunnen blijven nemen, en ondersteun die met trainingen. Als een systeem een taak maar deels overneemt, vraag dan om heldere indicatoren voor de betrouwbaarheid van het systeem en organiseer intervisie rond AI-gebruik.

Dit artikel is gebaseerd op: Buisman S, Carter SE, Bermúdez J-P. Autonomy by design: Preserving human autonomy in AI decisionsupport. Philosophy & Technology 2025;38:97

Stefan Buijsman is onderzoeker bij de TU Delft. Contact: S.N.R.Buijsman@tudelft.

Geef je reactie

Om te kunnen reageren moet je ingelogd zijn. Heb je nog geen
account, maak dan hieronder een account aan.
Lees ook de spelregels.