9.3 Valkuilen rondom insights en analytics
Ook als u individuele data gebruikt om te analyseren en besluiten te onderbouwen, moet u rekening houden met een aantal valkuilen.
9.3.1 Praktische analyses
geen actie
Het succes van een analyse zit misschien maar voor 30% in de analyse zelf en voor maar liefst 70% in de opvolging. U kunt een geweldige analyse maken, maar als deze ‘in de la belandt’, er geen actie op volgt door gebrek aan mogelijkheden, politieke gevoeligheid of onwil, of als de oplossing niet goed geïmplementeerd wordt, lijkt het alsof de analyse niet goed was. Kies daarom bij voorkeur voor analyses waar mensen daadwerkelijk op zitten te wachten en die keuzes rondom een actueel probleem onderbouwen.
Einde discussie bij PostNL
experiment
Zo woedde er binnen PostNL twee jaar lang een discussie over functioneringsgesprekken met postbezorgers. Moesten die er wel of niet komen? Uiteindelijk werd besloten tot een experiment: het ene deel van de postbezorgers kreeg een functioneringsgesprek, het andere deel niet. Met de data die daaruit voortkwamen, kon PostNL aantonen dat de toegevoegde waarde van de functioneringsgesprekken significant was.
Tijdsinvestering
niet haalbaar
Maar de data maakten ook duidelijk dat de tijdsinvestering van de managers door de functioneringsgesprekken veel te hoog opliep. Als de managers alle postbezorgers een functioneringsgesprek wilden bieden, moesten ze allemaal één dag in de week aan functioneringsgesprekken besteden. Dat was niet haalbaar. En dus werd besloten om het niet te doen. Omdat ze de analyse met data konden onderbouwen, was de discussie na twee jaar eindelijk gesloten.
Een ander voorbeeld waarbij data de doorslag gaven: een elektronicaorganisatie betaalde aan haar ‘landmanagers’ commissies uit naar rato van de omzet in het land. Totdat bleek dat de retailers ook weleens een voorraad uit een ander land haalden. Zo kon een retailketen in België het heel goed doen, terwijl het distributiecentrum van die organisatie in Frankrijk stond. Met als gevolg dat de Franse landmanager meer commissie kreeg en de Belgische minder.
data koppelen
De organisatie loste die discussie op door twee soorten data aan elkaar te koppelen. Aan de ene kant gebruikten ze de data uit de logistiek, die vertelden naar welk land producten werden toegestuurd. Aan de andere kant moesten de eindgebruikers zich op internet aanmelden om het product te updaten. Zo wisten ze ook in welk land het product geactiveerd was.
Door die twee datagegevens aan elkaar te koppelen, konden ze zien hoeveel er van het ene naar het andere land werd verschoven door de retailers zelf. Wat bleek? De landen importeerden net zo veel als dat ze exporteerden. Daarmee was de discussie over commissies eindelijk klaar.
9.3.2 Vertrouw data, maar blijf kritisch
veel discussie
algoritmes onbetrouwbaar
Hoe mooi alle voorbeelden van het gebruik van analytics, en algoritmes in het bijzonder, ook klinken, toch roepen ze ook veel discussie op. Want hoe eerlijk en rechtvaardig zijn ze nou eigenlijk? Wat als kandidaten onterecht worden afgewezen of gepromoot, alleen maar op basis van data? U leest en hoort waarschijnlijk regelmatig dat algoritmes onbetrouwbaar zouden zijn. U wilt ze wel gebruiken, maar tegelijkertijd heeft u grote reserves. Want tja, is het beoordelingsvermogen van algoritmes eigenlijk wel zo veel beter dan dat van mensen? Of is het juist nog slechter?
Vertrouwen
Het is lastig om op data te vertrouwen. En terecht, want een algoritme is niet 100% betrouwbaar. Maar dat zijn onze hersenen ook niet.
vooroordelen
Zoals eerder aangegeven, laat u zich bij het nemen van een beslissing deels sturen door vooroordelen. Een algoritme heeft dat probleem niet. Data hebben geen last van zelfoverschatting of emoties. Data zijn neutraal.
twee kenmerken
Het is de combinatie met menselijk handelen die de technologie goed of slecht maakt. Er zijn namelijk twee kenmerken waar u bij een algoritme rekening mee moet houden. Dat zijn:
Wat u er niet in stopt, komt er ook niet uit
juiste variabelen
Het analyseproces begint met een belangrijk stukje menselijk handelen: ervoor zorgen dat het systeem met de juiste variabelen begint. Ga met elkaar om de tafel zitten en brainstorm vrijuit over alle variabelen die belangrijk zouden kunnen zijn. Denk breed en creatief, het mogen honderden variabelen zijn. Daarna is het de beurt aan de data: u analyseert op basis van statistiek welke variabelen de meeste impact hebben op wat u met het algoritme wilt voorspellen.
Op rendement.nl/hrdossier vindt u allerlei informatie en tools over data, zoals de AVG-regels rondom data, verschillende data-analyses met Excel, en werken met realtime data.
Wat u erin stopt, komt er ook uit
door mensen gegenereerd
Ook aan het einde van de rit komt menselijk handelen om de hoek kijken. Want ook bij de data die ‘eruit komen’, loopt u tegen een probleem aan dat niet opgelost kan worden met AI. Algoritmes baseren hun voorspelling altijd op data uit het verleden. Die oude data zijn door mensen gegenereerd. Mensen zijn bevooroordeeld en de data borduren voort op menselijke keuzes uit het verleden.
integriteit
Wees dus kritisch. Analyseer de data en toets de algoritmes op integriteit. Evalueer de resultaten. Komt u erachter dat de data onbewust toch discrimineren? Ga dan na hoe dat komt. Dan kunt u het algoritme aanpassen, zodat dit in de toekomst niet meer voorkomt. Door veelvuldig gebruik van algoritmes en analyses daarop los te laten, kunt u ze steeds verder finetunen. Zo worden ze nog beter, eerlijker en betrouwbaarder.
Met bewustzijn op naar beter
eerlijker en rechtvaardiger
Nu al selecteren algoritmes een stuk eerlijker en rechtvaardiger dan het menselijk brein. Met de weinige discriminatie die er nog wel in zit, gaat u heel bewust om. U evalueert, analyseert, checkt en toetst. Iets wat bij menselijke beslissingen vaak niet eens wordt gedaan. Voorheen was u dus onbewust onbekwaam. Nu bent u in elk geval bewust, en meestal ook nog bekwaam.