AI in werving en selectie is geen toekomstmuziek. LinkedIn Recruiter draait op machine learning. ATS-systemen van Workday, SmartRecruiters en BambooHR filteren CVs met algoritmes. Assessment-tools zoals HireVue analyseren video-interviews. Predictive hiring-tools voorspellen welke kandidaten zullen slagen. Voor HR-afdelingen en recruitment-bureaus betekent de EU AI Act een serieuze heroverweging van deze tools.
De AI Act zet HR-AI expliciet in de hoog-risico categorie. Dat heeft gevolgen voor elke organisatie die ook maar een fractie van het recruitmentproces automatiseert. En het raakt niet alleen de software, maar ook uw beleid, documentatie en bestuurlijke verantwoording.
Waarom werving en selectie hoog-risico is
Bijlage III van de AI Act wijst specifieke domeinen aan als hoog-risico. Punt 4 van die lijst gaat over werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid. Daaronder vallen concrete toepassingen:
AI voor werving en selectie van kandidaten. CV-screening, voorfiltering van sollicitanten, geautomatiseerde afwijzingen, scoring-algoritmes voor toegang tot sollicitatiegesprekken.
AI voor beslissingen over promoties, ontslagen of toewijzing van werkzaamheden. Dit raakt performance-management-systemen, forced ranking-tools, algoritmes voor shift-planning.
AI voor monitoring en evaluatie van gedrag en prestaties op de werkvloer. Systemen die keystroke-activiteit meten, productiviteit voorspellen of gedrag analyseren.
Biometrische categorisering. AI die uit video-interviews gezichtsuitdrukking of emoties afleidt, valt hier ook onder.
Waarom deze toepassingen zo zwaar wegen is geen verrassing. Een verkeerde beslissing betekent dat iemand een baan niet krijgt, minder wordt betaald, onterecht wordt afgerekend op prestaties of wordt ontslagen. Fundamentele rechten en bestaansmiddelen staan op het spel.
Het verbod op emotieherkenning op de werkplek
Artikel 5 van de AI Act bevat een harde grens. AI-systemen die emoties herkennen op de werkplek zijn verboden sinds februari 2025. Punt.
Er is een kleine uitzondering voor medische of veiligheidsdoeleinden, maar voor HR-gebruik is er geen escape. Systemen die tijdens sollicitatiegesprekken de stemming van de kandidaat meten, engagement-niveaus op de werkvloer beoordelen of gezichtsuitdrukking monitoren om stress te detecteren: niet toegestaan.
Dit raakt een aantal bekende leveranciers van video-interview-AI. HireVue heeft zijn emotieherkenning al teruggedraaid na kritiek. Maar ook tools die zichzelf anders positioneren kunnen in de praktijk emotie-features hebben. Een fraudedetectie-module die ongewoon nerveuze gesprekken flagged, zit dicht tegen emotieherkenning aan.
Praktisch: loop al uw HR-tools door en vraag leveranciers expliciet of er emotieherkenning in zit. Als het antwoord niet helder nee is, zet de tool uit totdat u zekerheid heeft.
AVG-overlap: Artikel 22 blijft van kracht
Voor HR is de AI Act niet de enige wet. De AVG speelt al jaren een rol bij geautomatiseerde besluitvorming over personen. Artikel 22 van de AVG geeft werknemers en sollicitanten het recht om niet onderworpen te worden aan puur geautomatiseerde besluiten met rechtsgevolgen.
Dat betekent concreet: een volledig geautomatiseerde afwijzing van een sollicitant zonder menselijke tussenkomst is in principe verboden onder de AVG, met beperkte uitzonderingen. De AI Act voegt daar verplichtingen aan toe, maar vervangt Artikel 22 niet.
Een goede HR-AI-implementatie voldoet aan beide: menselijke check op elk materieel besluit (AVG Art. 22) en hoog-risico AI-verplichtingen zoals documentatie, risicoanalyse, transparantie en logging (AI Act).
De rol van FRIA en DPIA
Voor HR-AI is zowel een DPIA (Data Protection Impact Assessment onder de AVG) als een documentatie-set onder de AI Act nodig. Deze overlappen sterk.
De DPIA analyseert privacy-risico's: welke persoonsgegevens worden verwerkt, met welk doel, wie heeft toegang, welke risico's zijn er voor de sollicitant?
De AI Act-documentatie analyseert AI-specifieke risico's: bias (trekt het systeem bepaalde groepen voor?), betrouwbaarheid, beperkingen van het model, mogelijk foutief gedrag.
Integreer deze in een gezamenlijk document. Het is efficienter en voorkomt dat u hetzelfde systeem vanuit twee losse hoeken moet beoordelen. Een FRIA (Fundamental Rights Impact Assessment) is onder de AI Act alleen verplicht voor overheden en aanbieders van bepaalde publieke diensten, maar de denkwijze ervan (impact op fundamentele rechten en gelijke behandeling) hoort ook in uw HR-DPIA.
Discriminatie-risico is het grote thema
Het grootste praktische risico bij HR-AI is discriminatie. Trainingsdata van historische wervingsbeslissingen kunnen bias bevatten die het algoritme overneemt. Amazon heeft dit jaren geleden geleerd: hun AI-werving gaf vrouwen systematisch lagere scores omdat de trainingsdata overwegend uit CVs van mannen bestond.
Ook leveranciers die beweren bias-vrij te zijn, hebben vaak blinde vlekken. Een AI die CVs scoort op basis van 'past fit' kan onbedoeld etnische groepen uitsluiten omdat die minder vertegenwoordigd zijn in het historische personeelsbestand. Een tool die accent-analyse doet in video-interviews loopt het risico van herkomst-discriminatie.
De AI Act eist dat u deze risico's actief beoordeelt en mitigeert. Concreet:
Documenteer welke beschermde kenmerken zijn uitgesloten uit de scoring-variabelen.
Voer bias-testen uit op uitkomsten. Krijgen mannen en vrouwen, Nederlanders en niet-Nederlanders, jongeren en ouderen gemiddeld vergelijkbare scores bij gelijke kwalificaties? Zo niet, waarom?
Monitor outcomes in de praktijk. Verschillen in door-conversie tussen groepen kunnen op bias wijzen.
Sluit de feedback-loop. Als er signalen van bias zijn, moet er een proces zijn om het model aan te passen of tijdelijk te deactiveren.
Toezichthouders en handhaving
Voor HR-AI werken meerdere toezichthouders samen. De Autoriteit Persoonsgegevens (AP) is primair voor AVG-aspecten. Het College voor de Rechten van de Mens let op gelijke behandeling en discriminatie. Arbeidsinspectie SZW is betrokken bij arbeidsverhoudingen.
De AP heeft al meerdere onderzoeken gedaan naar HR-algoritmes. Uber is in 2023 veroordeeld voor onvoldoende transparantie rond de beoordelingsalgoritmes voor hun chauffeurs. Deze lijn zet zich voort.
Voor commerciele HR-aanbieders en recruitment-bureaus: u staat extra in de spotlight. Klanten vragen in aanbestedingen steeds vaker naar uw AI-governance. Wie daar geen antwoord op heeft, verliest opdrachten.
Wat HR-afdelingen nu moeten doen
Breng uw HR-AI-landschap in kaart. Inventariseer alle tools: ATS, assessment, screening, video-interviews, employee monitoring, shift-planning. Welke bevatten AI-componenten? Vraag leveranciers actief.
Klassificeer elk systeem. AI voor recruitment, promoties, ontslagen, prestatiebeoordeling of shift-toewijzing is waarschijnlijk hoog-risico. Voor beperkt-risico toepassingen (bijvoorbeeld een chatbot voor HR-vragen) gelden lichtere verplichtingen.
Voer DPIA en AI-impactanalyse uit voor elk hoog-risico systeem. Focus op bias, transparantie, menselijk toezicht en rechten van de sollicitant of werknemer.
Borg menselijke tussenkomst. Geen enkele materiele HR-beslissing mag volledig door AI worden genomen. Een recruiter moet kunnen afwijken van een AI-advies, een leidinggevende moet kunnen ingrijpen bij een AI-gedreven performance-beoordeling.
Informeer sollicitanten en medewerkers. Wie te maken krijgt met AI-beoordeling moet dit vooraf weten. In de vacaturetekst, in het sollicitatieproces, in het personeelshandboek. Transparantie is verplicht en versterkt vertrouwen.
Train HR-medewerkers in AI-geletterdheid. Recruiters, HR-adviseurs, leidinggevenden die met AI-tools werken moeten de beperkingen kennen. AI-geletterdheid is sinds februari 2025 verplicht.
Maak afspraken met leveranciers. Vraag om conformiteitsverklaringen, technische documentatie en duidelijkheid over bias-testen. Zonder die informatie kunt u zelf niet compliant worden.
Wat recruitment-bureaus extra moeten doen
Als recruitment-bureau bent u vaak zowel provider (uw eigen matching-AI) als deployer (uw klanten' ATS-systemen). De zwaarste verplichtingen raken de provider-rol.
Conformiteitsbeoordeling voor hoog-risico AI. Technische documentatie volgens Bijlage IV. Post-market monitoring. Incidentrapportage. EU-databank-registratie. Dat is een serieuze compliance-investering.
Tegenover staat een commercieel voordeel: opdrachtgevers die zelf onder de AI Act vallen, willen zaken doen met leveranciers die hun compliance op orde hebben. Wie als eerste een geaudit compliance-programma kan laten zien, wint deals.
Wat u vandaag kunt doen
De eerste stap is een eerlijke inventarisatie van uw HR-tools. Met de gratis AI Risicoscanner van AIComplianceHub brengt u in vijf minuten in kaart welke AI-systemen u gebruikt en welke classificatie daarbij hoort.
Het platform bouwt vervolgens uw AI-register op, genereert de documentatie (AI-beleid, DPIA's, transparantieverklaringen) en biedt AI-geletterdheidstraining aan uw HR-team. Alles in het Nederlands en afgestemd op de praktijk van Nederlandse werkgevers en bureaus.
HR zonder AI is vrijwel niet meer voorstelbaar. Maar zonder governance wordt het snel een juridisch mijnenveld. Begin nu, voordat de toezichthouder bij u aanklopt.