8.4 AI en fraudeopsporing
online assessments
Kandidaten vullen assessments steeds vaker online in. De COVID-pandemie heeft die ontwikkeling sterk versneld. Door online assessments hoeven kandidaten niet meer te reizen en kunnen ze het assessment op een eigen gekozen plek en tijdstip maken. Zoals besproken in hoofdstuk 4, kleeft er tegelijkertijd een groot nadeel aan online assessments in de vorm van een verhoogd risico op fraude. Dat geldt in het bijzonder voor assessments die capaciteitentesten bevatten.
Kandidaten die een bepaalde baan graag willen hebben, kunnen in de verleiding komen om te frauderen. Bijvoorbeeld door de juiste antwoorden op het internet op te zoeken.
Identificeren
methode
Om het probleem van fraude op te lossen, zijn er in het verleden een aantal statistische methoden ontwikkeld om fraude te identificeren. Die methoden functioneren echter beperkt. AI maakt het mogelijk slimme modellen te ‘trainen’ om assessmentfraude op te sporen. Wetenschappelijk onderzoek laat zien dat de effectiviteit van deze modellen veelbelovend is. In de toekomst kunnen deze modellen dus helpen bij fraudeopsporing binnen assessments.
8.4.1 Faking
detecteren
Naast fraude bij capaciteitentesten vormt faking bij persoonlijkheidstesten een bedreiging voor de validiteit van assessments. Kandidaten die faken bij een persoonlijkheidstest, presenteren zich bewust en doelgericht anders dan ze werkelijk zijn. Bijvoorbeeld door zich voor te doen als een nauwkeurige en gestructureerde werknemer, terwijl ze eigenlijk chaotisch en zonder planning te werk gaan. Ook op het gebied van het detecteren van faking met voorspellende AI, laten wetenschappelijke studies veelbelovende resultaten zien.
8.4.2 Schaduwzijde van AI
black box
De voordelen van voorspellende en generatieve AI lijken eindeloos. En dat is – gezien de kracht van AI-toepassingen – zeker niet onterecht. Voor een succesvolle toepassing van AI op assessments is het echter wel belangrijk om rekening te houden met de schaduwzijden van AI. Voorspellende AI-modellen worden bijvoorbeeld al snel een ‘black box’. Dat betekent dat de onderliggende mechanismen van het model niet transparant zijn. Dat is bijvoorbeeld problematisch als u een kandidaat tijdens een sollicitatieprocedure zou afwijzen op grond van de resultaten van een AI-model. Aan die kandidaat kunt u vervolgens geen inhoudelijke onderbouwing voor de afwijzing geven. Het is bovendien onmogelijk om te controleren of de resultaten van het model wel overeenkomen met de werkelijkheid.
Wetgeving en kwaliteitsstandaarden
kwaliteitscriteria
Diverse overheden – waaronder de Europese Unie en de Rijksinspectie Digitale Infrastructuur – werken al aan de ontwikkeling van wetgeving en kwaliteitsstandaarden voor AI. De Nederlandse COTAN kan bijdragen door eigen kwaliteitscriteria voor gebruik van AI bij assessments te ontwikkelen. Dit is momenteel echter nog niet gebeurd. Kortom, het is van groot belang dat AI op een verantwoorde manier wordt gebruikt, in lijn met geldende kwaliteitsstandaarden.
Onjuist
ethisch verantwoord
Een ander belangrijk probleem dat voorkomt bij generatieve AI-systemen, is dat ze soms onjuiste informatie genereren. Op het eerste gezicht lijkt een stuk tekst betrouwbaar, maar in tweede instantie blijkt het onzin te zijn. Ook ethiek is belangrijk bij het ontwikkelen en toepassen van AI. Daarom zijn er kennisexperts nodig om ervoor te zorgen dat de ontwikkelde algoritmes ethisch verantwoord zijn. Het blijft een menselijke taak om beslissingen uit te leggen en verantwoording af te leggen.