Elk groot leverancier van HR-software heeft de afgelopen twee jaar een AI-component toegevoegd aan zijn platform. Van CV-screening tot interviewanalyse en kandidaatranking: de belofte is altijd dezelfde. Sneller werven, minder handmatig werk, betere beslissingen. Wat minder prominent in de salesgesprekken wordt vermeld, is dat veel van die tools onder de EU AI Act als hoog-risico worden geclassificeerd en dat uw organisatie als gebruiker concrete verplichtingen heeft.
De EU AI Act werkt met categorieen. Systemen die vallen in de categorieen van Bijlage III worden automatisch als hoog-risico aangemerkt. Punt vier van die bijlage is direct: AI-systemen die worden ingezet voor werving en selectie, inclusief het screenen van sollicitaties, het beoordelen van kandidaten tijdens sollicitatiegesprekken of tests, en het adverteren van vacatures.
Dit is geen grijze zone die in de rechtspraak nog uitgewerkt moet worden. Als uw organisatie een tool gebruikt die CVs rangschikt, interviewscores genereert, of kandidaten filtert op basis van geautomatiseerde analyse, gebruikt u hoog-risico AI in de zin van de wet.
De wetgeving is van kracht geworden in augustus 2024. De verplichtingen voor hoog-risico AI-systemen in Bijlage III gaan in per augustus 2026. Dat is minder dan anderhalf jaar.
De EU AI Act maakt een onderscheid tussen aanbieders en gebruikers. Aanbieders zijn de bedrijven die de AI-systemen bouwen en op de markt brengen. Gebruikers zijn de organisaties die de systemen inzetten in een professionele context. HR-afdelingen die kant-en-klare wervingssoftware gebruiken, zijn in vrijwel alle gevallen gebruikers in de zin van de wet.
Artikel 26 van de EU AI Act legt specifieke verplichtingen op aan gebruikers van hoog-risico AI. U moet ervoor zorgen dat medewerkers die het systeem gebruiken passende training hebben ontvangen. U moet bij bepaalde systemen een grondrechtenbeoordeling uitvoeren voordat u het systeem in gebruik neemt. U moet het systeem actief monitoren op risico's tijdens gebruik en serieuze incidenten melden bij de bevoegde autoriteit.
De verantwoordelijkheid ligt dus niet alleen bij de leverancier. Ook als u een systeem heeft gekocht dat technisch voldoet aan de eisen van de aanbieder, draagt uw organisatie eigen verplichtingen.
De reden dat de EU AI Act strenge eisen stelt aan trainingsdata in Artikel 10 is niet theoretisch. De geschiedenis van AI in werving bevat concrete voorbeelden van wat er misgaat als die eisen niet worden gesteld. Amazon stopte in 2018 met zijn intern ontwikkelde AI-recruitmenttool nadat bleek dat het systeem systematisch vrouwelijke kandidaten benadeelde. Soortgelijke problemen zijn gedocumenteerd bij tools die gebruik maken van stemanalyse, gezichtsherkenning of taalmodellen die getraind zijn op historische wervingsdata.
Sluit je aan bij duizenden professionals die AI-vaardigheden leren met interactieve cursussen.
Het lastige aan algoritmische bias in wervingscontexten is dat het zelden zichtbaar is op individueel niveau. Per kandidaat kan een systeem correct lijken te functioneren, terwijl het op populatieniveau structureel bepaalde demografische groepen achterstelt. Dat is precies waarom Artikel 10 niet vraagt om een eenmalige toets, maar om voortdurende kwaliteitscontrole van trainingsdata gedurende de levenscyclus van het systeem.
Voor HR-teams betekent dit dat u kritisch moet zijn over wat uw leverancier u vertelt over hoe het systeem werkt. Leveranciers die niet in gewone taal kunnen uitleggen op basis van welke criteria het systeem kandidaten beoordeelt, leveren niet alleen onduidelijkheid op. Ze leveren juridisch risico op.
Voor sommige categorieen van hoog-risico AI moeten gebruikers een grondrechtenbeoordeling uitvoeren voordat het systeem in gebruik wordt genomen. Dit is een analyse van de potentiele gevolgen van het systeem voor grondrechten, waaronder het recht op non-discriminatie en het recht op eerbiediging van de persoonlijke levenssfeer.
Zo een beoordeling is geen vinkjeslijst. Het vraagt om inzicht in hoe het systeem werkt, welke data het gebruikt, voor welke functies en populaties het wordt ingezet, en welke safeguards er zijn om discriminatie te voorkomen. Die informatie moet grotendeels van de leverancier komen. Als uw contracten met HR-softwareleveranciers momenteel geen bepalingen bevatten die u toegang geven tot die informatie, moeten die contracten worden herzien.
Sollicitanten hebben al rechten op grond van de AVG als besluiten over hen worden genomen met behulp van geautomatiseerde verwerking. Artikel 22 van de AVG geeft betrokkenen in bepaalde gevallen het recht om niet uitsluitend onderworpen te worden aan geautomatiseerde besluitvorming. De EU AI Act voegt hier een laag aan toe met zijn eigen transparantie- en menselijk toezichtvereisten.
Deze twee kaders lopen niet altijd synchroon. Een verwerkersovereenkomst die voldoet aan de AVG dekt niet automatisch de verplichtingen onder de EU AI Act. HR-afdelingen en hun juridische adviseurs moeten beide kaders tegelijkertijd in acht nemen, en begrijpen waar ze overlappen en waar ze van elkaar afwijken.
Als een afgewezen kandidaat vraagt om uitleg over hoe een AI-tool zijn sollicitatie heeft beoordeeld, moet uw organisatie dat kunnen geven. Artikel 13 van de EU AI Act stelt eisen aan de transparantie die gebruikers kunnen bieden aan de mensen over wie beslissingen worden genomen.
De EU AI Act verbiedt het gebruik van HR-automatisering bij werving niet. Het stelt voorwaarden aan hoe dat gebruik is ingericht. Een compliant proces heeft een paar kenmerken die nu in veel organisaties nog ontbreken.
Er is gedocumenteerd menselijk toezicht. Elke AI-ondersteunde wervingsbeslissing heeft een aantoonbare menselijke beslisser die de output heeft beoordeeld en de definitieve keuze heeft gemaakt. Dat is niet alleen een procesvereiste; het is ook de basis voor verantwoordelijkheid als een beslissing later wordt aangevochten.
Er is een technisch logboek. Artikel 12 stelt eisen aan de logging van hoog-risico AI-systemen. U moet achteraf kunnen reconstrueren welke rol het systeem heeft gespeeld in een specifieke beslissing. Als dat logboek bij de leverancier zit en u er geen toegang toe heeft, is dat een probleem dat contractueel moet worden opgelost.
Er zijn contractuele afspraken die uw verplichtingen als gebruiker ondersteunen. De leverancier heeft een conformiteitsverklaring en documentatie die uw grondrechtenbeoordeling en risicoanalyse kunnen onderbouwen.
Organisaties die wachten tot augustus 2026 om na te denken over compliance met de EU AI Act voor hun wervingstools, starten te laat. De juridische review van leverancierscontracten, het uitvoeren van grondenrechtbeoordelingen, het trainen van medewerkers en het inrichten van monitoringprocessen kost tijd. Niet weken, maar maanden.
Nationale toezichthouders in Nederland, waaronder het Ministerie van Digitale Zaken en de Autoriteit Persoonsgegevens, zijn al actief bezig met de implementatie van de EU AI Act. De kans dat organisaties die niet tijdig actie ondernemen te maken krijgen met handhaving of klachten van kandidaten, neemt toe naarmate de deadline dichterbij komt.
AI-gestuurde werving kan legitiem, efficient en eerlijk zijn. Maar dat vereist dat de organisaties die deze tools inzetten de verantwoordelijkheid nemen die de wet hun geeft. Die verantwoordelijkheid begint met begrijpen wat de wet vraagt en eerlijk zijn over wat er in de eigen organisatie nog moet worden ingericht.