De EU AI Act stelt de strengste eisen aan hoog-risico AI-systemen. Maar wat maakt een AI-systeem hoog-risico? En hoe weet u of uw organisatie hiermee te maken heeft?
De AI Act hanteert een risicogebaseerde aanpak. AI-systemen die significante risico's kunnen vormen voor de gezondheid, veiligheid of grondrechten van personen, worden als hoog-risico geclassificeerd. Dit zijn systemen die direct invloed hebben op belangrijke beslissingen in het leven van mensen.
Er zijn twee routes waarlangs een AI-systeem als hoog-risico kan worden aangemerkt: via Annex I (AI in gereguleerde producten) of via Annex III (AI in specifieke toepassingsgebieden).
AI-systemen die zijn ingebed in producten die al onder bestaande EU-veiligheidswetgeving vallen. Denk aan medische hulpmiddelen, machines, liften en speelgoed. De deadline is juridisch 2 augustus 2027; het Digital Omnibus-akkoord van 7 mei 2026 verschuift dit naar 2 augustus 2028 (formele aanname verwacht juni/juli 2026).
AI-systemen die worden ingezet in een van de acht specifieke gebieden die de wetgever als risicovol heeft aangemerkt. Dit is de categorie die voor de meeste organisaties relevant is. Juridische deadline: 2 augustus 2026. Het Digital Omnibus-akkoord van 7 mei 2026 verschuift deze datum naar 2 december 2027, mits formeel aangenomen vóór OJ-publicatie.
AI-systemen in deze gebieden worden als hoog-risico beschouwd en moeten voldoen aan strenge eisen.
Systemen voor biometrische identificatie en categorisatie van personen, waaronder gezichtsherkenning.
MKB-voorbeeld: Gezichtsherkenning voor toegangscontrole op kantoor.
AI in het beheer en de exploitatie van kritieke digitale infrastructuur, verkeer en energie- en watervoorziening.
MKB-voorbeeld: AI-gestuurde verkeersregeling of energiemanagementsystemen.
AI die bepaalt wie toegang krijgt tot onderwijs of die leerprestaties beoordeelt.
MKB-voorbeeld: Geautomatiseerde beoordeling van examens of toelatingsselectie.
AI voor werving, selectie, promotie, ontslag of taaktoewijzing van werknemers.
MKB-voorbeeld: AI-screening van cv's, geautomatiseerde sollicitantenselectie.
AI die bepaalt wie toegang krijgt tot essentiële private en publieke diensten, waaronder krediet en verzekeringen.
MKB-voorbeeld: Geautomatiseerde kredietscoring of verzekeringspremieberekening.
AI voor risicobeoordeling, polygrafie, evaluatie van bewijsmateriaal en profilering door rechtshandhavingsinstanties.
MKB-voorbeeld: Predictive policing of geautomatiseerde bewijsanalyse.
AI voor risicobeoordeling van reizigers, controle van reisdocumenten en behandeling van asielaanvragen.
MKB-voorbeeld: Geautomatiseerde beoordeling van visumaanvragen.
AI die wordt gebruikt om rechtbanken te ondersteunen bij het onderzoeken en interpreteren van feiten en het toepassen van het recht.
MKB-voorbeeld: AI-tools voor juridische analyse die rechterlijke beslissingen beïnvloeden.
Risicomanagmentsysteem: een doorlopend proces om risico's te identificeren, analyseren en beperken.
Data governance: eisen aan de kwaliteit, representativiteit en relevantie van trainings- en testdata.
Technische documentatie: gedetailleerde documentatie over het systeem, de werking en beperkingen.
Registratie en logging: automatische registratie van gebeurtenissen gedurende de levenscyclus.
Transparantie: duidelijke instructies voor deployers over het gebruik en de beperkingen.
Menselijk toezicht: het systeem moet effectief door mensen kunnen worden overzien.
Nauwkeurigheid en robuustheid: het systeem moet bestand zijn tegen fouten en manipulatie.
Conformiteitsbeoordeling: een formele beoordeling vóór het op de markt brengen of in gebruik nemen.
AIComplianceHub helpt u bij het voldoen aan deze verplichtingen. Van AI-beleid tot documentatie: wij genereren de benodigde documenten automatisch.
Een hoog-risico AI-systeem is een AI-toepassing die significante risico's kan vormen voor de gezondheid, veiligheid of grondrechten van personen. De EU AI Act definieert acht specifieke gebieden waarbinnen AI-systemen als hoog-risico worden geclassificeerd.
Uw AI-systeem is hoog-risico als het valt binnen een van de acht gebieden in Annex III van de AI Act, of als het is ingebed in een product dat onder bestaande EU-productveiligheidsregelgeving valt. Gebruik onze gratis risicoscan om het risiconiveau te bepalen.
Voor hoog-risico AI gelden uitgebreide verplichtingen: een risicomanagmentsysteem, datakwaliteitseisen, technische documentatie, registratie en logging, transparantie, menselijk toezicht, nauwkeurigheid en robuustheid en een conformiteitsbeoordeling.
ChatGPT zelf is niet automatisch hoog-risico. Het is een general-purpose AI-systeem (GPAI). Het kan echter hoog-risico worden als het wordt ingezet in een hoog-risico context, bijvoorbeeld als onderdeel van een sollicitatiescreening of kredietbeoordeling.
Doe de gratis risicoscan en ontdek of uw AI-systemen als hoog-risico worden geclassificeerd. AIComplianceHub bepaalt automatisch het risiconiveau en geeft u een concreet actieplan.