Steeds meer organisaties zetten AI in bij werving en selectie. Cv-screening, geautomatiseerde assessments, videoanalyse van sollicitatiegesprekken: het bespaart tijd. Maar onder de EU AI Act vallen deze toepassingen in de zwaarste regulering. HR-afdelingen die AI gebruiken bij personeelsbeslissingen moeten zich nu voorbereiden op strenge verplichtingen.
Waarom is AI in HR hoog-risico?
De EU AI Act classificeert AI-systemen die worden gebruikt voor werving, selectie en personeelsbeslissingen expliciet als hoog-risico. Dit staat in Bijlage III, categorie 4 van de verordening. De redenering is helder: AI die bepaalt of iemand een baan krijgt, raakt direct aan fundamentele rechten. Het recht op gelijke behandeling, het verbod op discriminatie, het recht op menselijke waardigheid.
De praktijk bewijst dat die zorgen terecht zijn. AI-systemen voor recruitment hebben herhaaldelijk bewezen dat ze bestaande vooroordelen kunnen versterken. Een beroemd voorbeeld: het cv-screeningssysteem van Amazon dat vrouwelijke kandidaten structureel lager rangschikte. Het model was getraind op historische data van een overwegend mannelijk personeelsbestand. Resultaat? Systematische discriminatie, ingebakken in een algoritme.
Welke HR-tools vallen onder de AI Act?
De reikwijdte is breder dan veel HR-managers denken. Het gaat niet alleen om exotische AI-tools. Veel gangbare HR-software bevat AI-functionaliteit die onder de hoog-risico categorie valt.
Cv-screening en matching
Platforms als Recruitee, Personio, Bullhorn en Greenhouse gebruiken AI-algoritmes om kandidaten te ranken op basis van hun cv. Sommige systemen filteren kandidaten al automatisch uit voordat een recruiter ze te zien krijgt. Dit is een schoolvoorbeeld van hoog-risico AI onder de AI Act.
Video-assessments
Tools als HireVue analyseren gezichtsuitdrukkingen, stemgeluid en woordkeuze van kandidaten tijdens video-interviews. De AI kent scores toe die meewegen in de selectiebeslissing. Dit raakt aan emotieherkenning, wat in bepaalde contexten zelfs verboden is onder de AI Act.
LinkedIn Recruiter en vergelijkbare platforms
De AI-gestuurde aanbevelingen van LinkedIn Recruiter, die bepalen welke kandidaten bovenaan verschijnen bij een zoekopdracht, vallen eveneens onder de AI Act als u deze inzet voor daadwerkelijke selectiebeslissingen.
Verzuimvoorspelling en workforce analytics
AI die voorspelt welke medewerkers risico lopen op verzuim of verloop, en op basis daarvan acties voorstelt, is ook een hoog-risico toepassing. Hier worden beslissingen over bestaand personeel beinvloed door algoritmes.
Geautomatiseerde assessment-tools
Psychometrische tests en gamified assessments die AI gebruiken om persoonlijkheid of competenties te meten, vallen in dezelfde categorie.
Welke verplichtingen gelden er?
Voor hoog-risico AI-systemen in HR gelden vanaf augustus 2026 uitgebreide verplichtingen. Dit geldt zowel voor de aanbieders van deze tools als voor u als gebruiksverantwoordelijke (deployer). Wat moet u als HR-verantwoordelijke concreet regelen?
Beoordeling van fundamentele rechten
Voor hoog-risico AI-systemen die personen raken moet u een beoordeling uitvoeren van de impact op fundamentele rechten. Hoe beinvloedt het systeem het recht op gelijke behandeling? Kan het leiden tot discriminatie op basis van geslacht, leeftijd, afkomst of andere beschermde kenmerken? Documenteer deze analyse grondig.
Menselijk toezicht
Geen enkel AI-systeem mag volledig autonoom beslissen over aanname of afwijzing van kandidaten. Er moet altijd een mens in de besluitvorming zitten die de AI-output kritisch beoordeelt. Dit betekent concreet: een recruiter moet elke door AI gemaakte selectie kunnen overrulen. De AI mag adviseren, niet beslissen.
Transparantie naar kandidaten
Sollicitanten hebben het recht om te weten dat AI wordt ingezet in het selectieproces. U moet hen hierover informeren voordat de verwerking plaatsvindt. Niet achteraf, niet verstopt in de kleine lettertjes van uw privacyverklaring. Proactief, duidelijk, begrijpelijk.
Non-discriminatie en bias-monitoring
U bent verplicht om te monitoren of uw AI-systemen discriminerende patronen vertonen. Dit betekent dat u regelmatig moet controleren of bepaalde groepen systematisch worden benadeeld. Worden vrouwen minder vaak doorgeselecteerd? Scoren kandidaten met een niet-westerse achternaam lager? U moet dit meten, documenteren en waar nodig corrigeren.
Technische documentatie en logging
Alle interacties met hoog-risico AI-systemen moeten worden gelogd. U moet kunnen aantonen hoe het systeem tot een bepaalde aanbeveling is gekomen. Uw leverancier is verplicht om u de benodigde technische documentatie te verstrekken.
De twee deadlines die HR-managers moeten kennen
Februari 2025: AI-geletterdheid verplicht
Artikel 4 van de AI Act is al van kracht sinds 2 februari 2025. Dit betekent dat iedereen in uw organisatie die met AI-systemen werkt, voldoende kennis moet hebben van AI, de risicos en de toepasselijke regelgeving. Voor HR-medewerkers die AI-recruitmenttools gebruiken is dit direct relevant. Kunnen uw recruiters uitleggen hoe de AI-screening werkt? Begrijpen ze wanneer ze een AI-aanbeveling moeten wantrouwen? Weten ze hoe bias zich kan manifesteren? Zo niet, dan loopt u nu al achter op de wet.
Augustus 2026: volledige compliance hoog-risico systemen
Vanaf 2 augustus 2026 gelden alle verplichtingen voor hoog-risico AI-systemen. Dit is de harde deadline. Uw FRIA moet zijn uitgevoerd. Uw menselijk toezicht moet zijn ingericht. Uw documentatie moet op orde zijn. Uw bias-monitoring moet draaien. Tot die datum heeft u de tijd om alles in te richten. Maar die tijd gaat snel.
Vijf stappen die HR-managers nu moeten zetten
Wacht niet tot augustus 2026. Begin vandaag met deze concrete stappen.
Breng al uw HR-AI in kaart
Welke tools met AI-functionaliteit gebruikt uw HR-afdeling? Denk breed: niet alleen de speciale recruitment-software, maar ook LinkedIn Recruiter, assessment-platforms, workforce analytics. Registreer elk systeem in uw AI-register.
Vraag uw leveranciers om documentatie
Onder de AI Act zijn aanbieders verplicht om gebruiksverantwoordelijken te voorzien van technische documentatie. Vraag uw leverancier naar de conformiteitsverklaring, informatie over trainingsdata, bias-rapportages. Kan de leverancier dit niet leveren? Dan is dat een serieus signaal.
Richt menselijk toezicht in
Stel vast op welke momenten in het recruitmentproces AI een rol speelt. Zorg dat er bij elke stap een mens is die de AI-output kan beoordelen en overrulen. Documenteer hoe dit toezicht is ingericht.
Train uw HR-team
De AI-geletterdheidsplicht geldt al. Zorg dat uw recruiters en HR-managers begrijpen wat de AI Act van hen vraagt. Wat is bias? Hoe herken je het? Wanneer vertrouw je een AI-aanbeveling niet? Dit is geen eenmalige presentatie. Plan periodieke bijscholing in.
Voer een eerste risicoscan uit
Gebruik de AI Risicoscanner op AIComplianceHub.nl om snel inzicht te krijgen in de risicocategorie van uw HR-tools. In vijf minuten weet u welke systemen als hoog-risico kwalificeren en welke verplichtingen daarbij horen. Van daaruit kunt u gericht aan de slag met uw compliance-traject.
De kans achter de verplichting
AI Act-compliance in HR is meer dan een juridische verplichting. Het is een kans om uw wervingsproces eerlijker en transparanter te maken. Organisaties die aantoonbaar verantwoord omgaan met AI in recruitment bouwen vertrouwen op bij kandidaten, medewerkers en toezichthouders.
Kandidaten kiezen steeds bewuster voor werkgevers die transparant zijn over hun selectieproces. In een krappe arbeidsmarkt kan dat het verschil maken. Een eerlijk, uitlegbaar selectieproces is niet alleen compliant. Het is ook goed werkgeverschap.
Klaar om te starten? Scan uw HR-tools via de gratis AI Risicoscanner en ontdek in vijf minuten waar u staat. Vanuit het AIComplianceHub-platform bouwt u vervolgens uw AI-register op, genereert u de verplichte documentatie en traint u uw team. Alles in een platform, speciaal voor het Nederlandse MKB.