U bent hier

Onderneming & Fiscus
Werken met AI8. Risico’s, beperkingen en ethische dilemma’s8.3 Bias en discriminatie

8.3 Bias en discriminatie

Dit artikel is eerder verschenen als Themadossier HR Rendement
Publicatiedatum: maart 2024

verzinsel

Algoritmes en getrainde modellen kunnen een verkeerde afslag nemen en onjuiste of zelfs onwettige verbanden leggen. Een verzinsel over een niet-bestaand apparaat is misschien nog vrij onschuldig, maar het model kan ook afslagen nemen of dingen aanleren die leiden tot vooringenomenheid (‘bias’) of discriminatie. Bijvoorbeeld bij het gebruik van AI bij werving en selectie kan dat tot nare situaties leiden.

Juist ook voor dit soort situaties is het belangrijk dat er richtlijnen zijn voor AI-gebruik. Op rendement.nl/hrdossier vindt u een voorbeeld, de ‘Regeling AI op het werk’.

Inclusief

controlefunctie

Aan een vooringenomen model heeft uw organisatie niets. Het is daarom bij werving en selectie belangrijk dat de mens altijd nog een controlefunctie houdt en op basis van data beslissingen neemt. Verder zult u moeten proberen om AI zo te (laten) trainen dat het bias zo veel mogelijk uitsluit. AI is als een papegaai: leert u het model aan wat ‘inclusief’ is, dan gaat het daarmee aan de slag, ongeacht of het goed of fout is.

Kwaliteit

zelflerend

Wat helpt, is het verbeteren van de kwaliteit van datasets, door te zorgen voor een representatieve vertegenwoordiging van alle groepen in de samenleving. Op die manier wordt de output eerlijker en accurater. Kwalitatief goede datasets zijn een basisvoorwaarde voor AI; ‘garbage in, garbage out’ moet u zien te voorkomen. Toch moet u ook bij goede data opletten. Omdat AI zelflerend is, kan het zichzelf verkeerde dingen aanleren en daardoor alsnog niet-inclusief worden. Ook kunnen gebruikers lang niet altijd zelf het model bijsturen, omdat die kennis en kunde bij een externe leverancier zit.