De EU AI Act verbiedt een aantal AI-praktijken die onaanvaardbare risico's vormen voor fundamentele rechten. Dit verbod is al van kracht — boetes kunnen oplopen tot €35 miljoen.
2 feb 2025
Verbod van kracht
Eerste deadline AI Act
€35M
Maximale boete
of 7% wereldwijde omzet
8
Verboden praktijken
Artikel 5(1)(a) t/m (h)
AI-systemen die subliminale technieken inzetten of op andere wijze manipulatieve of misleidende technieken gebruiken om het gedrag van personen wezenlijk te beinvloeden en daarmee aanzienlijke schade kunnen veroorzaken.
AI die misbruik maakt van kwetsbaarheden van personen op basis van leeftijd, handicap of specifieke sociaal-economische situatie om hun gedrag te beinvloeden.
AI-systemen die personen een score geven op basis van sociaal gedrag of persoonlijke kenmerken, met negatieve gevolgen in ongerelateerde contexten. Geldt voor zowel publieke als private actoren.
AI-systemen die risicoprofilering van individuen uitvoeren puur op basis van profilering of persoonlijkheidskenmerken om strafbare feiten te voorspellen, zonder concreet bewijs.
Het ongericht verzamelen van gezichtsafbeeldingen van internet of CCTV om een gezichtsherkenningsdatabase op te bouwen.
AI-systemen die emoties herkennen op de werkplek of in het onderwijs, tenzij dit om medische of veiligheidsredenen noodzakelijk is.
AI-systemen die personen categoriseren op basis van biometrische data om ras, politieke overtuigingen, vakbondslidmaatschap, religieuze gezindheid, seksleven of seksuele geaardheid af te leiden.
Live gezichtsherkenning of andere remote biometrische identificatie in openbare ruimtes door rechtshandhaving, met smalle uitzonderingen voor ernstige misdrijven of terroristische dreiging (met rechterlijke toestemming vooraf).
Als u ontdekt dat uw organisatie een verboden AI-systeem gebruikt, is het belangrijk om direct actie te ondernemen. Het verbod geldt al sinds 2 februari 2025, dus elk moment dat u het systeem nog inzet vergroot het risico op handhaving.
Stop direct het gebruik: schakel het verboden AI-systeem zo snel mogelijk uit.
Documenteer het gebruik: leg vast wanneer het systeem is gebruikt, door wie en met welk doel.
Beoordeel de impact: onderzoek of er personen zijn geraakt door het verboden AI-gebruik.
Zoek alternatieven: bepaal of er een legaal alternatief is dat hetzelfde doel bereikt.
Meld intern: informeer management en compliance over het verboden gebruik.
Onze risicoscan controleert automatisch of uw AI-systemen onder de verboden categorie vallen.
Per AI-systeem ziet u direct in welke risicocategorie het valt, inclusief uitleg waarom.
Bij een verboden classificatie adviseren wij over mogelijke legale alternatieven.
Wanneer de regelgeving verandert, worden uw classificaties automatisch bijgewerkt.
De AI Act verbiedt onder meer: sociale scoring door overheden, manipulatieve AI die kwetsbare groepen uitbuit, realtime biometrische identificatie in openbare ruimtes (met uitzonderingen), emotieherkenning op de werkplek en in het onderwijs en ongerichte scraping van gezichtsafbeeldingen.
Het verbod op onaanvaardbare AI-systemen is van kracht sinds 2 februari 2025. Dit was de eerste deadline van de EU AI Act. Organisaties die nog steeds verboden AI-systemen gebruiken zijn nu al in overtreding.
Het gebruik van verboden AI-systemen kan leiden tot boetes tot 35 miljoen euro of 7% van de wereldwijde jaaromzet, afhankelijk van welk bedrag hoger is. Dit zijn de hoogste boetes onder de AI Act.
Gebruik de gratis risicoscan van AIComplianceHub om te controleren of uw AI-systemen onder de verboden categorie vallen. De scan stelt gerichte vragen over het doel en de werking van uw AI en classificeert het risiconiveau automatisch.
Gebruik de gratis risicoscan om te controleren of uw AI-systemen onder de verboden categorie vallen. Voorkom boetes tot €35 miljoen.