8.3 Bias en discriminatie
verzinsel
Algoritmes en getrainde modellen kunnen een verkeerde afslag nemen en onjuiste of zelfs onwettige verbanden leggen. Een verzinsel over een niet-bestaand apparaat is misschien nog vrij onschuldig, maar het model kan ook afslagen nemen of dingen aanleren die leiden tot vooringenomenheid (‘bias’) of discriminatie. Bijvoorbeeld bij het gebruik van AI bij werving en selectie kan dat tot nare situaties leiden.
Juist ook voor dit soort situaties is het belangrijk dat er richtlijnen zijn voor AI-gebruik. Op rendement.nl/hrdossier vindt u een voorbeeld, de ‘Regeling AI op het werk’.
Inclusief
controlefunctie
Aan een vooringenomen model heeft uw organisatie niets. Het is daarom bij werving en selectie belangrijk dat de mens altijd nog een controlefunctie houdt en op basis van data beslissingen neemt. Verder zult u moeten proberen om AI zo te (laten) trainen dat het bias zo veel mogelijk uitsluit. AI is als een papegaai: leert u het model aan wat ‘inclusief’ is, dan gaat het daarmee aan de slag, ongeacht of het goed of fout is.
Kwaliteit
zelflerend
Wat helpt, is het verbeteren van de kwaliteit van datasets, door te zorgen voor een representatieve vertegenwoordiging van alle groepen in de samenleving. Op die manier wordt de output eerlijker en accurater. Kwalitatief goede datasets zijn een basisvoorwaarde voor AI; ‘garbage in, garbage out’ moet u zien te voorkomen. Toch moet u ook bij goede data opletten. Omdat AI zelflerend is, kan het zichzelf verkeerde dingen aanleren en daardoor alsnog niet-inclusief worden. Ook kunnen gebruikers lang niet altijd zelf het model bijsturen, omdat die kennis en kunde bij een externe leverancier zit.