De EU AI Act stelt de strengste eisen aan hoog-risico AI-systemen. Maar wat maakt een AI-systeem hoog-risico? En hoe weet u of uw organisatie hiermee te maken heeft?
De AI Act hanteert een risicogebaseerde aanpak. AI-systemen die significante risico's kunnen vormen voor de gezondheid, veiligheid of grondrechten van personen, worden als hoog-risico geclassificeerd. Dit zijn systemen die direct invloed hebben op belangrijke beslissingen in het leven van mensen.
Er zijn twee routes waarlangs een AI-systeem als hoog-risico kan worden aangemerkt: via Annex I (AI in gereguleerde producten) of via Annex III (AI in specifieke toepassingsgebieden).
AI-systemen die zijn ingebed in producten die al onder bestaande EU-veiligheidswetgeving vallen. Denk aan medische hulpmiddelen, machines, liften en speelgoed. De deadline hiervoor is augustus 2027.
AI-systemen die worden ingezet in een van de acht specifieke gebieden die de wetgever als risicovol heeft aangemerkt. Dit is de categorie die voor de meeste organisaties relevant is. Deadline: augustus 2026.
AI-systemen in deze gebieden worden als hoog-risico beschouwd en moeten voldoen aan strenge eisen.
Systemen voor biometrische identificatie en categorisatie van personen, waaronder gezichtsherkenning.
MKB-voorbeeld: Gezichtsherkenning voor toegangscontrole op kantoor.
AI in het beheer en de exploitatie van kritieke digitale infrastructuur, verkeer en energie- en watervoorziening.
MKB-voorbeeld: AI-gestuurde verkeersregeling of energiemanagementsystemen.
AI die bepaalt wie toegang krijgt tot onderwijs of die leerprestaties beoordeelt.
MKB-voorbeeld: Geautomatiseerde beoordeling van examens of toelatingsselectie.
AI voor werving, selectie, promotie, ontslag of taaktoewijzing van werknemers.
MKB-voorbeeld: AI-screening van cv's, geautomatiseerde sollicitantenselectie.
AI die bepaalt wie toegang krijgt tot essentiële private en publieke diensten, waaronder krediet en verzekeringen.
MKB-voorbeeld: Geautomatiseerde kredietscoring of verzekeringspremieberekening.
AI voor risicobeoordeling, polygrafie, evaluatie van bewijsmateriaal en profilering door rechtshandhavingsinstanties.
MKB-voorbeeld: Predictive policing of geautomatiseerde bewijsanalyse.
AI voor risicobeoordeling van reizigers, controle van reisdocumenten en behandeling van asielaanvragen.
MKB-voorbeeld: Geautomatiseerde beoordeling van visumaanvragen.
AI die wordt gebruikt om rechtbanken te ondersteunen bij het onderzoeken en interpreteren van feiten en het toepassen van het recht.
MKB-voorbeeld: AI-tools voor juridische analyse die rechterlijke beslissingen beïnvloeden.
Risicomanagmentsysteem: een doorlopend proces om risico's te identificeren, analyseren en beperken.
Data governance: eisen aan de kwaliteit, representativiteit en relevantie van trainings- en testdata.
Technische documentatie: gedetailleerde documentatie over het systeem, de werking en beperkingen.
Registratie en logging: automatische registratie van gebeurtenissen gedurende de levenscyclus.
Transparantie: duidelijke instructies voor deployers over het gebruik en de beperkingen.
Menselijk toezicht: het systeem moet effectief door mensen kunnen worden overzien.
Nauwkeurigheid en robuustheid: het systeem moet bestand zijn tegen fouten en manipulatie.
Conformiteitsbeoordeling: een formele beoordeling vóór het op de markt brengen of in gebruik nemen.
AIComplianceHub helpt u bij het voldoen aan deze verplichtingen. Van AI-beleid tot documentatie: wij genereren de benodigde documenten automatisch.
Een hoog-risico AI-systeem is een AI-toepassing die significante risico's kan vormen voor de gezondheid, veiligheid of grondrechten van personen. De EU AI Act definieert acht specifieke gebieden waarbinnen AI-systemen als hoog-risico worden geclassificeerd.
Uw AI-systeem is hoog-risico als het valt binnen een van de acht gebieden in Annex III van de AI Act, of als het is ingebed in een product dat onder bestaande EU-productveiligheidsregelgeving valt. Gebruik onze gratis risicoscan om het risiconiveau te bepalen.
Voor hoog-risico AI gelden uitgebreide verplichtingen: een risicomanagmentsysteem, datakwaliteitseisen, technische documentatie, registratie en logging, transparantie, menselijk toezicht, nauwkeurigheid en robuustheid, en een conformiteitsbeoordeling.
ChatGPT zelf is niet automatisch hoog-risico. Het is een general-purpose AI-systeem (GPAI). Het kan echter hoog-risico worden als het wordt ingezet in een hoog-risico context, bijvoorbeeld als onderdeel van een sollicitatiescreening of kredietbeoordeling.
Doe de gratis risicoscan en ontdek of uw AI-systemen als hoog-risico worden geclassificeerd. AIComplianceHub bepaalt automatisch het risiconiveau en geeft u een concreet actieplan.