In 2001 kwam ik als kind samen met mijn broer en ouders als vluchteling uit Syrië naar Nederland. Nu ben ik arts in opleiding tot specialist bedrijfsgeneeskunde. Mij is weleens gevraagd: ‘Heb jij kansenongelijkheid ervaren?' Het antwoord is ingewikkeld. Waarschijnlijk zijn er momenten geweest waarin de deuren niet even gemakkelijk open gingen als voor anderen. Dat blijft moeilijk te beoordelen.
Maar mijn mindset was simpel: werk met wat je hebt, accepteer dat niets vanzelf komt en zet elke dag vol in om je doel te bereiken. Kansenongelijkheid gaat in de kern om iets eenvoudigs: niet iedereen start op dezelfde plek en niet iedereen krijgt dezelfde route aangeboden. Het zijn de kleine obstakels die zich opstapelen. Daardoor heb ik mij altijd gerealiseerd dat ik niet dezelfde kansen had als anderen; ik heb dit echter nooit als onrecht of discriminatie ervaren.
In deze bijdrage wil ik me richten op kansenongelijkheid, namelijk op wat AI betekent voor kansenongelijkheid op de werkvloer.
Tweedeling
AI neemt steeds meer taken over en dat heeft gevolgen voor hoe werk wordt georganiseerd. Managers krijgen vaak AI-applicaties die hen helpen betere beslissingen te nemen. Tegelijkertijd krijgen uitvoerende medewerkers algoritmes die hun pauzes monitoren en het werkritme bepalen. De ene groep krijgt AI als creatieve partner en de andere als digitale toezichthouder. Een verschil dat bepalend wordt voor wie ruimte heeft om te groeien en wie gestuurd wordt door prestatie-indicatoren.
Deze verschillende behandeling gaat verder dan alleen technologie. AI-systemen lijken namelijk systematisch discriminatiepatronen uit het verleden te reproduceren. Het probleem begint al bij de data zelf, namelijk veel openbaar beschikbare databronnen bevatten vooroordelen die AI-modellen vervolgens overnemen en versterken, zoals de Sociaal-Economische Raad recent waarschuwde.1 Onderzoek toont aan hoe diep deze stereotypering gaat. Wanneer afbeeldingsgeneratoren zoals Midjourney gevraagd worden een ‘persoon’ te tekenen, komt er bijna altijd een man uit. Een ‘Indian person’ levert steevast een oudere man met baard en oranje tulband op. Deze patronen zijn niet onschuldig want ze weerspiegelen en versterken bestaande vooroordelen over wie ‘normaal’ wordt geacht in verschillende rollen.
In de praktijk ontstaan hierdoor ongelijke behandelingen. Onderzoek wijst op patronen waarbij cv-screeningssystemen voorkeur kunnen geven aan bepaalde namen of achtergronden. Beoordelingssystemen kunnen lagere scores toekennen aan specifieke groepen door vooroordelen in de onderliggende data. Het gevaarlijke hieraan is de schijn van objectiviteit. ‘Het algoritme bepaalde het’ kan het perfecte alibi worden voor discriminatie. Bepaalde groepen krijgen hierdoor systematisch minder kansen, zonder dat zij hun verhaal kunnen vertellen of bezwaar kunnen maken.
Onderzoek toont dat slechts 33 procent van de Nederlanders gelooft dat AI-programma’s geen vooroordelen vertonen. Opvallend genoeg ligt het vertrouwen in mensen nog lager: slechts 25 procent denkt dat mensen zelf niet discrimineren, zie de figuur. Dit wantrouwen richting AI-programma’s is niet ongegrond. Recent oordeelde het College voor de Rechten van de Mens dat Facebook’s advertentie-algoritme discrimineert bij vacatures. Receptionist-vacatures werden voor 97 procent aan vrouwen getoond, monteur-vacatures voor 96 procent aan mannen.2
Vaardigheidskloof
Ondertussen ontstaat er ook een nieuwe vaardigheidskloof. Organisaties investeren vaak selectief in AI-training. Hogeropgeleiden krijgen toegang tot geavanceerde tools, terwijl anderen achterblijven. Deze digitale kloof wordt snel een kansenongelijkheid. Wie geen AI-vaardigheden ontwikkelt merkt dat toegang tot goed betaald werk afneemt. Jongeren krijgen een voorsprong op ouderen, hogeropgeleiden op lageropgeleiden. De verschillen tussen groepen werknemers worden op deze manier systematisch vergroot. Wat de situatie nog complexer maakt is hoe AI taken herverdeelt. De technologie neemt vaak juist de interessante onderdelen van werk over: concepten ontwikkelen, data analyseren, ideeën genereren. Mensen houden de routine over: controleren, corrigeren, monitoren. Dit raakt rechtstreeks aan werknemersontwikkeling en welzijn.Beginnende werknemers missen ontwikkelkansen omdat AI de leerzame taken overneemt die vroeger hun groeipad vormden. Als aios bedrijfsgeneeskunde zie ik hoe dit kan leiden tot verminderde werktevredenheid, stress door gebrek aan uitdaging en zorgen over toekomstperspectief. Het probleem ligt niet alleen bij AI zelf, maar ook bij de systematische stapeling van voordelen en nadelen. Wie al een sterke positie heeft, krijgt AI-tools die hen nog productiever maken. Wie een zwakkere positie heeft, krijgt vaak AI-controle en monitoring. Ik moet hierbij altijd denken aan de volgende quote: ‘In the future there will be two types of workers: those who master it and those who are mastered by it.’
Figuur 1. Vertrouwen in AI en in mensen.
‘De technologie neemt vaak het interessante deel van het werk over’
Leren van fouten
Als ik terugkijk op mijn eigen pad, besef ik dat de obstakels die ik tegenkwam tenminste zichtbaar waren. Je kon ze benoemen, erover praten en er iets aan doen. Met AI wordt kansenongelijkheid vaak onzichtbaar en verborgen achter algoritmes die we niet kunnen doorgronden. Dat maakt het gevaarlijker.
Gelukkig ontstaat er ook bewustzijn. De SER1 en Autoriteit Persoonsgegevens2 formuleren concrete aanbevelingen en rechtelijke uitspraken, zoals die tegen Facebook, dwingen bedrijven tot transparantie. We leren van de fouten en bouwen waarborgen in. Misschien ligt hierin ook de kans. AI zou, mits bewust ingezet, juist kunnen helpen kansongelijkheid te verminderen. Het begint bij de keuzes die we nu maken: welke data gebruiken we, hoe ontwerpen we systemen en zijn we bereid om ongemakkelijke vragen te stellen over wat onze algoritmes daadwerkelijk doen