U bent hier

2.3 Wat is AI?

Dit artikel is eerder verschenen als Themadossier HR Rendement
Publicatiedatum: maart 2024

intelligentie

AI gaat over allerlei verschillende technologieën, methodologieën en toepassingen. De belangrijkste zijn machine ­learning, deep learning en neurale netwerken. Daarover leest u in de paragrafen hieronder meer. In paragraaf 2.3.2 vindt u ook andere toepassingen. De vraag wat er onder kunstmatige intelligentie valt en wat niet, is ingewikkelder dan hij op het eerste gezicht lijkt. Daarvoor moet eerst duidelijk zijn wat intelligentie is en wanneer iets ‘kunstmatig intelligent’ is. Denkt u dan aan een slimme thermostaat of een stofzuigrobot? Grote kans dat als u dit aan drie collega’s vraagt, u ook drie verschillende antwoorden krijgt.

2.3.1 Definitie

menselijk

Een veelgebruikte definitie voor intelligentie is: ‘het vermogen om informatie op te nemen, te analyseren en op basis hiervan actie te ondernemen.’ Denk aan het vermogen om te redeneren, te plannen, te leren, te communiceren en beslissingen te nemen: eigenschappen die ons menselijk maken. AI zorgt er dus voor dat computers taken kunnen gaan uitvoeren die de mens eerst moest doen. Denk aan spraakherkenning, beeldherkenning en zelfs besluitvorming. Dat overnemen van menselijke taken maakt dit soort technologie vaak spannend, want wat is dan de rol van de mens?

Echte kracht zit in het combineren

toegevoegde waarde

AI is als een doos LEGO-blokjes. Elk blokje staat voor een AI-tool die goed is in een specifieke taak, zoals teksten analyseren of foto’s interpreteren. Het zijn specialisten in taken. Het is mogelijk om zo’n blokje los te gebruiken, maar de echte kracht zit in het combineren ervan en om, net als bij LEGO, iets van toegevoegde waarde te creëren door de combinatie van de losse blokjes.

2.3.2 Toepassingen van AI

NLP

besluitvorming simuleren

toekomstige gebeurtenis

big data

AI omvat vele toepassingen. Naast de opties genoemd in paragraaf 1.3 staan hieronder meer toepassingen op een rij:

  • Robotica: hoewel niet altijd exclusief AI, omvat moderne robotica vaak AI-elementen om robots autonoom te laten functioneren en complexe taken uit te laten voeren.
  • Natuurlijke taalverwerking (NLP): NLP stelt machines in staat om menselijke taal te lezen, te begrijpen en te interpreteren. Dat is van groot belang voor toepassingen zoals chatbots, vertaaldiensten en sentimentanalyse.
  • Computer vision: zorgt ervoor dat computers informatie uit visuele data, zoals afbeeldingen en video’s, kunnen halen. Het wordt gebruikt in toepassingen zoals gezichtsherkenning en medische beeldanalyse.
  • Expertsystemen: expertsystemen zijn AI-systemen die besluitvorming simuleren gebaseerd op een set van regels. Het is veelgebruikt in domeinen zoals medische diagnoses en juridisch advies.
  • Automatisering en autonome systemen: systemen die taken kunnen uitvoeren zonder menselijke tussenkomst, zoals zelfrijdende auto’s of autonome drones.
  • Voorspellende analyse: AI wordt gebruikt voor het analyseren van data en het maken van voorspellingen over toekomstige gebeurtenissen. Dit speelt een grote rol in sectoren als financiën, marketing en operations.
  • Sentimentanalyse: een toepassing van NLP waarbij AI de emotionele toon achter tekstgegevens beoordeelt. Dit komt vooral van pas in de klantenservice en bij marktonderzoek.
  • Augmented reality (AR) en virtual reality (VR): hoewel meer op hardware gericht, integreren deze technologieën vaak AI-componenten voor een meer interactieve en intelligente gebruikerservaring.
  • AI in big data: AI speelt een belangrijke rol in het verwerken en analyseren van grote datasets (big data).

AI is een snelgroeiend veld dat voortdurend evolueert met de ontwikkeling van steeds nieuwe technologieën en toepassingen.

2.3.3 Algoritme

wiskunde

proces

Alle AI die we vandaag de dag kennen, is gebaseerd op (geavanceerde) wiskunde en statistiek. AI begint eigenlijk met data. Data zijn de benzine voor algoritmes. Er zijn veel gegevens nodig om een computer iets te kunnen leren. Om een computer te leren hoe een kat eruitziet, zijn honderdduizenden foto’s van katten nodig. De volgende stap is het algoritme; als het ware de motor van het AI-systeem. De benzine gaat erdoorheen en zet de ruwe olie om in energie om vooruit te kunnen. Een algoritme is een stapsgewijs proces om een bepaalde taak of bepaald probleem op te lossen. Het is een set van instructies, een soort ‘recept’ dat een computer kan volgen om die taak of een berekening uit te voeren. Het algoritme bepaalt dus hoe een AI-systeem beslissingen neemt en leert (bijvoorbeeld: is het verkeerslicht rood, dan moet de zelfrijdende auto afremmen en stoppen).

Algoritmes kunnen eenvoudige taken uitvoeren, zoals het sorteren van een lijst met namen, maar ook complexe taken, zoals het uitvoeren van zoekopdrachten in grote databanken of het aansturen van AI.

Patronen

Een kind leert een appel herkennen door verschillende afbeeldingen van appels te zien: grote en kleine appels, groene en rode, aan een boom of op een tafel. Door alle soorten te analyseren, leert het kind om een appel te herkennen. AI doet hetzelfde, alleen op veel grotere schaal. Op basis van heel veel data zoekt AI naar patronen en leert daarvan.

2.3.4 Machine learning

trainen

zelflerend

Als computers leren uit data zonder expliciet geprogrammeerd te worden, is er sprake van machine learning. Een AI-model kan echter behoorlijk complex zijn. Dan is de menselijke input juist weer van groter belang. Voor het trainen van het model moet een mens namelijk aangeven of de input – zoals een foto van een appel – wel klopt. Ook is het nodig om willekeurig te controleren of het model wel de juiste antwoorden geeft. Dit is repetitief werk, maar helpt wel om te voorkomen dat er bias ontstaat of dat het model iets verkeerd aanleert. Slechts 3 tot 5% van de AI-modellen is volledig zelflerend, de rest heeft training nodig door mensen.

Bias in AI bij werving en selectie

cv

discriminatie

Bij Amazon deed zich een situatie voor, waarbij er sprake was van bias bij AI. Amazon wilde de selectie van werknemers automatiseren. Het algoritme daarvoor werd getraind met cv’s die het bedrijf over een periode van tien jaar had ontvangen. Daarbij werd over het hoofd gezien dat het bedrijf de afgelopen jaren voornamelijk mannen had aangenomen, waardoor het algoritme een voorkeur kreeg voor mannen. Het ging zelfs zo ver dat cv’s die woorden als ‘vrouw’ bevatten, lager gerangschikt werden.

Onbedoeld

Hierdoor ontstond onbedoelde discriminatie: door deze bias werd het systeem in feite discriminerend, waarbij het mannelijke kandidaten bevoordeelde ten opzichte van vrouwelijke kandidaten, ongeacht hun daadwerkelijke kwalificaties. Wat een organisatie dus aan data in een algoritme stopt, komt er vervolgens ook weer uit.

Kwantiteit en kwaliteit

trainingsdata

onjuist

Het idee is om computers de mogelijkheid te geven om te leren en beslissingen te nemen gebaseerd op patronen en inzichten die ze uit gegevens halen. Daarvoor heeft het systeem wel heel veel trainingsdata nodig. Niet alleen de kwantiteit, maar ook de kwaliteit van de data is van belang. Stel dat het kind uit het eerdere voorbeeld alleen rode appels te zien krijgt, dan kan de conclusie zijn dat er alleen maar rode appels bestaan. Krijgt een AI-systeem dus onvolledige of onjuiste data, dan zullen de voorspellingen op basis van die gegevens ook onjuist zijn.

Trainen

Het is mogelijk om een machine learning-model te trainen om e-mails te classificeren als spam of legitiem. Het leert van kenmerken zoals bepaalde woorden, zinspatronen, afzendergegevens en hoe gebruikers reageren op vergelijkbare e-mails (bijvoorbeeld door ze als spam te markeren).

Handig

gestructureerde data

Machine learning gebruikt dus algoritmes en technieken zoals supervised learning, unsupervised learning en reinforcement learning. Deze vormen zijn handig als het gaat om data in de vorm van cijfers en letters; gestructureerde data. Met deep learning (zie paragraaf 2.3.9) is het mogelijk om bijvoorbeeld beeld of audio te verwerken, die data zijn meer complex.

2.3.5 Supervised learning

actief ­betrokken

Supervised learning is één van de belangrijkste benaderingen binnen machine learning, een tak van AI. In dit geval zijn mensen actief betrokken bij het trainen van het algoritme. Dit heet supervised learning, omdat er sprake is van een dataset waarin elke input (zoals een afbeelding of tekst) is gekoppeld aan een label of output (zoals een categorie of nummer) dat door een mens is vastgesteld. Het model wordt getraind op deze gelabelde dataset (bijvoorbeeld het herkennen van appels), en het leert zo om voorspellingen te maken of beslissingen te nemen gebaseerd op de inputdata. Ook bij het bepalen van wat wel en geen spammails zijn, is iemand nodig om die labels te benoemen.

twee fasen

Supervised learning komt in allerlei soorten toepassingen voor. Denk aan beeld- en spraakherkenning, spamdetectie in e-mails binnen de organisatie, medische diagnose en financiële prognoses.

Trainen en testen

trainings­proces

Een belangrijk aspect van supervised learning is dat er twee fasen zijn: training en testen. Tijdens de training leert het model patronen te herkennen in de trainingsdata. Daarna wordt het model getest met nieuwe data om te zien hoe goed het geleerd heeft en of het correcte voorspellingen kan doen. Het doel van het trainingsproces is het minimaliseren van de fout tussen de voorspellingen van het model en de werkelijke labels in de trainingsdata.

2.3.6 Unsupervised learning

zelf patronen vinden

Unsupervised learning is een type machine learning waarbij algoritmes zelf patronen en structuren moeten vinden in datasets. Die datasets bevatten dus geen gelabelde reacties of uitkomsten. In tegenstelling tot supervised learning, waarbij modellen trainen met data waarvan de gewenste uitkomst bekend is, leert unsupervised learning van de structuur van de data zelf. Er is dus geen specifieke output waar het model op kan trainen.

Clustering

groeperingen vinden

Een veelvoorkomende toepassing van unsupervised learning is clustering, waarbij het algoritme probeert om natuurlijke groeperingen binnen de data te vinden. Bijvoorbeeld, het kan groepen van klanten identificeren met vergelijkbare koopgedragingen in een dataset van klantentransacties.

Sentimentanalyse

opschonen

Het mkb kan unsupervised learning, zoals NLP, bijvoorbeeld inzetten voor de analyse van socialmediasentimenten. Daarvoor moet een organisatie uiteraard eerst data verzamelen van verschillende socialmediaplatformen. Met NLP is het mogelijk om data op te schonen (zoals het verwijderen van stopwoorden en het normaliseren van tekst) en tekst om te zetten in een formaat dat een machinelearningmodel goed kan verwerken.

Patronen en kenmerken

taalmodel

De sentimentanalyse identificeert vervolgens patronen en kenmerken in de tekst die wijzen op positieve, negatieve of neutrale sentimenten. Dat kon vroeger door middel van clusteringalgoritmes die teksten groeperen op basis van hun sentimentkenmerken. Tegenwoordig hebben de taalmodellen, zoals die achter ChatGPT, deze techniek overbodig gemaakt, omdat ze door hun kennis over de wereld en menselijke taal zelfstandig hyperaccuraat een dergelijke analyse kunnen maken. Zo ontstaat een beter inzicht in de publieke perceptie en sentimenten over de organisatie en de producten. Dat kan weer helpen bij het aanpassen van marketingstrategieën, het verbeteren van klantenservice, productontwikkeling en het beheren van de online reputatie.

Unsupervised learning is nuttig in situaties waarin het verzamelen van gelabelde data moeilijk of kostbaar is, of als een organisatie verborgen structuren in de data wil ontdekken die niet vooraf bekend zijn.

2.3.7 Reinforcement learning

simulatie

Bij reinforcement learning traint de computer via straffen en belonen. Tijdens grote hoeveelheden simulaties is het de bedoeling dat er op die manier een steeds beter resultaat komt. Dat straffen en belonen werkt via het krijgen van hogere of lagere scores. Leert een computer een spel, dan probeert het dus steeds hogere punten te krijgen door het heel vaak te proberen en erachter te komen wat het beste werkt. Vervolgens zullen alleen de algoritmes met de hoogste scores ingezet worden in de simulatie.

2.3.8 Reinforcement learning with human feedback

desinformatie

Reinforcement learning with human feedback is een technologie die betrekkelijk recent in opkomst is gekomen, doordat de ontwikkelaars van generatieve AI-taalmodellen een manier nodig hadden om de uitkomsten van het model meer te kunnen sturen. Omdat een taalmodel alle inhoud van het internet heeft opgeslokt, weet het niet alleen hoe het een gedicht of ontslagbrief moet schrijven, maar ook hoe iemand kan inbreken bij de buren of een politieke tegenstander kan zwartmaken. Om te voorkomen dat taalmodellen antwoorden geven op vragen waar een verkeerde intentie achter zit – bijvoorbeeld het verspreiden van desinformatie of het schrijven van een malafide computercode – moet ze geleerd worden wat goed en slecht is.

kwetsend

Aangezien algoritmes zwart-wit zijn en doorgaans geen ethisch kader hebben, moeten mensen ze dat vertellen. Mensen moeten dus de output van het algoritme controleren en feedback geven, waar het algoritme van leert.

Instructie

menselijk brein

Zo kan het taalmodel leren om geen antwoorden te geven die kwetsend kunnen zijn voor een bepaalde groep. Wat wel en niet door de beugel kan, ligt in dat geval aan de instructies van de ontwikkelaar en aan de menselijke controleurs.

2.3.9 Deep learning en neurale netwerken

Neurale netwerken zijn rekenkundige modellen geïnspireerd op het menselijk brein, die gebruikt worden in deep learning. Ze zijn bijzonder effectief in taken zoals beeld- en spraakherkenning en kunnen zelfs autonome auto’s besturen. Dit is een techniek die pas sinds 2018 beschikbaar is. Neuronen gebruiken activatiefuncties om te bepalen of en hoe sterk ze een signaal doorgeven. Deze functies kunnen niet-lineair zijn, wat neurale netwerken in staat stelt complexe patronen te leren. Denk aan de beeldherkenning van een kat op basis van vele observaties en kenmerken (zie paragraaf 2.3.3).

voorspelling

Neurale netwerken komen niet alleen van pas bij beeld- en spraakherkenning, maar ook bij onder andere natuurlijke taalverwerking, medische diagnose en financiële voorspellingen.

Ongestructureerd

Neurale netwerken zijn bijzonder krachtig in het herkennen van patronen en het maken van voorspellingen op basis van grote hoeveelheden data. Al die data kunnen dan ongestructureerd zijn. Denk daarbij onder andere aan video’s, foto’s en geluidsfragmenten. Vergeleken met geschreven teksten zijn dit soort data niet zo makkelijk te doorzoeken.

Black box

uitleggen

Doordat deep learning heel complex kan worden, is het niet altijd meer te achterhalen hoe een bepaalde uitkomst is verkregen: de ‘black box’. Als een rechter hiervan gebruikmaakt, kan dat tot grote problemen leiden, maar voor suggesties voor een volgende serie om te kijken maakt het niet zo veel uit. Het is dus belangrijk om bij het werken met deep learning rekening te houden met de mate waarin iemand de resultaten moet kunnen uitleggen.