Navigeren door het ethische landschap van AI

Algemeen
887 keer bekeken

Het is duidelijk dat de toepassingen van AI (kunstmatige intelligentie) enorm veel voordelen kunnen bieden voor het HR-werkveld. Echter, het is niet allemaal rozengeur en maneschijn. Hoewel kunstmatige intelligentie een krachtig hulpmiddel is, blijft het een tool die doet wat het is geprogrammeerd om te doen. Als we AI trainen met vooringenomen data, krijgen we vertekende en mogelijk schadelijke uitkomsten. 

Het is dus essentieel om deze data met grote zorg en aandacht te selecteren en te beoordelen. AI is een ondersteuning, geen volledige vervanging voor de diepgaande analyse en intuïtie die de recruitment of HR-professional heeft. 

In dit artikel duiken we in de ethische aspecten van het gebruik van AI in HR en onderzoeken we de beperkingen van AI-technologie. 

Ethische overwegingen bij AI-gebruik

Het gebruik van AI om werknemers te monitoren kan gemakkelijk een stap te ver gaan. Wat begint als een tool om productiviteit te verhogen, kan al snel leiden tot een inbreuk op de privacy van werknemers, wat kan resulteren in ethische en juridische problemen. In deze tijd van onzekerheid maken sommige (tech)bedrijven bijvoorbeeld gretig gebruik van de mogelijkheid om werknemers te controleren op hun productiviteit. Er is dan ook een ware opmars gaande van technologie die werkgevers helpt om de productiviteit van hun werknemers te verbeteren. 

Ook is er het risico dat geschikte kandidaten onjuist afgewezen worden. Uit een studie van de Harvard Business School bleek dat 88% van de HR-leiders heeft ontdekt dat hun tools soms gekwalificeerde kandidaten afwijzen. Overdreven eisen in functiebeschrijvingen en algoritmische cv-screening kunnen leiden tot onterechte afwijzingen van gekwalificeerde sollicitanten. De algoritmes zullen vaak kandidaten afwijzen die slechts een paar vaardigheden missen van een lange lijst met kwalificaties. Ze wezen ook enkele mogelijke kandidaten af die een periode van werkloosheid hadden, zonder de context van de situatie te kennen. 

Daarnaast is er ook de uitdaging rondom gegevensbescherming. Een gemiddeld bedrijf lekt honderden keren per week data naar chat GPT. En dit terwijl ChatGPT deze data opslaat en gebruikt ter verbetering van het model. Bedrijven en medewerkers zijn zich hier niet van bewust, maar doordat dit gebeurt, kunnen onbedoelde toekomstige business plannen met ChatGPT gedeeld worden. Wat daarnaast velen niet weten is dat OpenAI, het bedrijf achter deze geavanceerde chatbot, het recht heeft om de persoonlijke gegevens van gebruikers met nader te bepalen derden te delen zonder user consent te vragen vooraf. 

Wat zijn de beperkingen van het gebruik van AI-technologie? 

AI is een hulpmiddel dat ons leven op vele manieren kan vergemakkelijken. Het kan ons helpen bij het analyseren van grote hoeveelheden data, het voorspellen van trends en het nemen van geïnformeerde beslissingen. 

Maar in wervings-, management- en ontslagprocessen sluipen vaak vooroordelen. Soms zijn ze subtiel, bijvoorbeeld wanneer er minder vrouwen worden aangenomen of wanneer oudere werknemers te snel worden ontslagen. Ongeveer de helft van de mensen ervaart dat hun ras, geslacht of etniciteit hun zoektocht naar een baan bemoeilijkt. 

Sommige bedrijven zetten AI in om deze vooroordelen te omzeilen en beslissingen te nemen zonder rekening te houden met deze beschermde groepen. Maar AI is alleen zo goed als de dataset waarmee het getraind wordt. Eventuele fouten of inherente vooroordelen in de dataset zullen zich weerspiegelen in de uitkomsten van de AI. Dit zijn geen emotionele vooroordelen, maar programmeerfouten die ongewenste resultaten opleveren. Er zijn verschillende veelvoorkomende problemen die bias in AI veroorzaken. We bespreken deze hieronder. 

Niet alles is meetbaar 

Soms stuit je op een uitdaging wanneer je probeert bepaalde eigenschappen te meten tijdens het creëren van trainingsdata. Neem bijvoorbeeld het beoordelen van goed schrijfwerk door programmeurs. Schrijfhulp Software kan grammatica, spelling en zinslengte checken, maar het vangen van de subtiliteiten van menselijke taal zoals rijm en idiomatische uitdrukkingen, is een heel ander verhaal. 

Trainingsdata kan gemanipuleerd worden 

Er is altijd een risico dat kwaadwillenden trainingsdata bewust kunnen verstoren. Een voorbeeld hiervan is Tay, een AI-chatbot die in 2016 door Microsoft werd uitgebracht op Twitter. Tay was slechts een paar uur online voordat mensen haar leerden om opruiende content te posten. Het gevolg was dat Tay gewelddadige, racistische en seksistische desinformatie verspreidde, waardoor Twitter gedwongen werd om haar slechts 16 uur na de lancering offline te halen. 

Algoritmen kunnen hun eigen gegevens beïnvloeden

Een algoritme kan de gegevens die het ontvangt beïnvloeden, waardoor een positieve feedbacklus ontstaat. Naarmate foto's naar de voorpagina van een zoekmachine stijgen, klikken meer mensen erop, wat een positieve feedbacklus creëert waarin het algoritme ze nog meer suggereert. Hierdoor kan het algoritme de eigen gegevens beïnvloeden. 

Data kan verborgen maatschappelijke vooroordelen weerspiegelen 

Als je bijvoorbeeld "mooi" opzoekt in Google, zie je voornamelijk foto's van blanke vrouwen. Dit komt doordat de trainingset die het algoritme gebruikte, dit soort afbeeldingen bevat. De zoekmachine heeft geen raciale voorkeuren, maar de monsters waaruit hij zijn resultaten haalt, zijn gemaakt door mensen die dat wel hadden. 

Vind de balans

Hoewel kunstmatige intelligentie een krachtig hulpmiddel is, blijft het een tool die doet wat het is geprogrammeerd om te doen. Als we AI trainen met vooringenomen data, krijgen we vertekende en mogelijk schadelijke uitkomsten. Het is dus essentieel om deze data met grote zorg en aandacht te selecteren en te beoordelen. Het is aan de HR-professionals om deze uitdaging niet alleen de komende jaren aan te gaan, maar ook om deze in goede banen te leiden.

De toekomst van werving ligt niet in het kiezen tussen mens en machine, maar in het vinden van de juiste balans tussen de twee. Technologie kan ons helpen om efficiënter en nauwkeuriger te zijn, maar we mogen de waarde van menselijke interactie en intuïtie niet onderschatten. 

Bij Deen zetten we data op een innovatieve manier in om onze klanten te ondersteunen. We detecteren talent en ondernemerschap op basis van de groeifase en doelstellingen van de organisatie. Nieuw te werven managers worden vergeleken met de best presterende managers binnen dezelfde organisatie. Zo geven wij gedetailleerd selectieadvies, gebaseerd op data, met inzichten zoals slaagkansen en specifieke ontwikkelingspunten per competentie. Dit waarborgt de instroom van kundige managers en robuuste managementteams.

Een van onze vooruitstrevende toepassingen is de 24/7 data-analyse. Hiermee brengen we ‘real-time’ de gap in kaart tussen hoog presterende managers en potentiële nieuwe aanwervingen, compleet met een weergave van de slaagkans in percentages. Door deze methode helpen we onze klanten hun organisatiedoelen te realiseren en zorgen we ervoor dat managers en managementteams optimaal worden ingezet.

Geen enkele computer kan het begrip van een ervaren recruiter repliceren die weet hoe soft skills, houding en culturele fit te beoordelen. Het is de menselijke recruiter die ervoor zorgt dat ze de juiste persoon voor de baan kiezen en een positieve werkcultuur waarborgen. 

Nieuwsgierig geworden naar hoe wij data inzetten om de juiste kandidaten te vinden? Neem gerust contact met ons op.

Aanmelden Deen nieuwsbrief
Aanmelden

Contact

Ontmoet onze consultants
Heeft u een vacante positie of bent u zelf werkzaam op directie- of senior managementniveau en zoekt u een vertrouwd bureau dat bij u past? Neem dan gerust contact met ons op. Wij bespreken dan graag de diverse mogelijkheden.
Maak een afspraak