AIComplianceHubAIComplianceHub
PlatformPrijzenWaarom?Over onsKennisbankContactInloggenGratis Risicoscan
PlatformPrijzenWaarom?Over onsKennisbankContactInloggen
Gratis Risicoscan
AIComplianceHubAIComplianceHub

Het AI-register en compliance-platform voor Nederlands MKB.

Product

RisicoscannerPlatformPrijzenDemo bekijkenAI-registerAI-geletterdheid e-learningAI governanceDocumentgeneratie

EU AI Act

EU AI Act-gidsKennisbankDeadlinesBoetesConformiteit

Sectoren

ICT & SoftwareZorgFinanceOverheidHR & RecruitmentOnderwijsAlle sectoren →

Bedrijf

Over onsPartnerContact

Juridisch

PrivacybeleidCookieverklaringVoorwaarden
© 2026 AIComplianceHub.nl — Alle rechten voorbehoudenDit is een hulpmiddel, geen juridisch advies.
Verboden sinds 2 februari 2025

Verboden AI: welke systemen mag u niet gebruiken?

De EU AI Act verbiedt een aantal AI-praktijken die onaanvaardbare risico's vormen voor fundamentele rechten. Dit verbod is al van kracht — boetes kunnen oplopen tot €35 miljoen.

Controleer uw AI-systemenBekijk de lijst

2 feb 2025

Verbod van kracht

Eerste deadline AI Act

€35M

Maximale boete

of 7% wereldwijde omzet

8

Verboden praktijken

Artikel 5(1)(a) t/m (h)

Artikel 5

Verboden AI-praktijken onder de AI Act

Subliminale of manipulatieve AI (Art. 5(1)(a))

AI-systemen die subliminale technieken inzetten of op andere wijze manipulatieve of misleidende technieken gebruiken om het gedrag van personen wezenlijk te beinvloeden en daarmee aanzienlijke schade kunnen veroorzaken.

Exploitatie van kwetsbaarheden (Art. 5(1)(b))

AI die misbruik maakt van kwetsbaarheden van personen op basis van leeftijd, handicap of specifieke sociaal-economische situatie om hun gedrag te beinvloeden.

Sociale scoring (Art. 5(1)(c))

AI-systemen die personen een score geven op basis van sociaal gedrag of persoonlijke kenmerken, met negatieve gevolgen in ongerelateerde contexten. Geldt voor zowel publieke als private actoren.

Predictive policing op basis van profiling (Art. 5(1)(d))

AI-systemen die risicoprofilering van individuen uitvoeren puur op basis van profilering of persoonlijkheidskenmerken om strafbare feiten te voorspellen, zonder concreet bewijs.

Ongerichte scraping van gezichtsafbeeldingen (Art. 5(1)(e))

Het ongericht verzamelen van gezichtsafbeeldingen van internet of CCTV om een gezichtsherkenningsdatabase op te bouwen.

Emotieherkenning op werk en school (Art. 5(1)(f))

AI-systemen die emoties herkennen op de werkplek of in het onderwijs, tenzij dit om medische of veiligheidsredenen noodzakelijk is.

Biometrische categorisatie op gevoelige kenmerken (Art. 5(1)(g))

AI-systemen die personen categoriseren op basis van biometrische data om ras, politieke overtuigingen, vakbondslidmaatschap, religieuze gezindheid, seksleven of seksuele geaardheid af te leiden.

Real-time remote biometrische identificatie in publieke ruimtes (Art. 5(1)(h))

Live gezichtsherkenning of andere remote biometrische identificatie in openbare ruimtes door rechtshandhaving, met smalle uitzonderingen voor ernstige misdrijven of terroristische dreiging (met rechterlijke toestemming vooraf).

Actie ondernemen

Wat als u een verboden AI-systeem gebruikt?

Als u ontdekt dat uw organisatie een verboden AI-systeem gebruikt, is het belangrijk om direct actie te ondernemen. Het verbod geldt al sinds 2 februari 2025, dus elk moment dat u het systeem nog inzet vergroot het risico op handhaving.

Stop direct het gebruik: schakel het verboden AI-systeem zo snel mogelijk uit.

Documenteer het gebruik: leg vast wanneer het systeem is gebruikt, door wie en met welk doel.

Beoordeel de impact: onderzoek of er personen zijn geraakt door het verboden AI-gebruik.

Zoek alternatieven: bepaal of er een legaal alternatief is dat hetzelfde doel bereikt.

Meld intern: informeer management en compliance over het verboden gebruik.

AIComplianceHub

Voorkom verboden AI-gebruik

Automatische screening

Onze risicoscan controleert automatisch of uw AI-systemen onder de verboden categorie vallen.

Duidelijke classificatie

Per AI-systeem ziet u direct in welke risicocategorie het valt, inclusief uitleg waarom.

Alternatievenadvies

Bij een verboden classificatie adviseren wij over mogelijke legale alternatieven.

Doorlopende monitoring

Wanneer de regelgeving verandert, worden uw classificaties automatisch bijgewerkt.

Veelgestelde vragen

Veelgestelde vragen over verboden AI

Welke AI-systemen zijn verboden?

De AI Act verbiedt onder meer: sociale scoring door overheden, manipulatieve AI die kwetsbare groepen uitbuit, realtime biometrische identificatie in openbare ruimtes (met uitzonderingen), emotieherkenning op de werkplek en in het onderwijs en ongerichte scraping van gezichtsafbeeldingen.

Sinds wanneer geldt het verbod op AI?

Het verbod op onaanvaardbare AI-systemen is van kracht sinds 2 februari 2025. Dit was de eerste deadline van de EU AI Act. Organisaties die nog steeds verboden AI-systemen gebruiken zijn nu al in overtreding.

Wat zijn de boetes voor verboden AI?

Het gebruik van verboden AI-systemen kan leiden tot boetes tot 35 miljoen euro of 7% van de wereldwijde jaaromzet, afhankelijk van welk bedrag hoger is. Dit zijn de hoogste boetes onder de AI Act.

Hoe weet ik of mijn AI-systeem verboden is?

Gebruik de gratis risicoscan van AIComplianceHub om te controleren of uw AI-systemen onder de verboden categorie vallen. De scan stelt gerichte vragen over het doel en de werking van uw AI en classificeert het risiconiveau automatisch.

Lees verder

Gerelateerde onderwerpen

Hoog-risico AI

Wat maakt een AI-systeem hoog-risico?

Lees meer

AI Risicoanalyse

Beoordeel de risico's van uw AI-systemen

Lees meer

AI Act Deadlines

Wanneer moet u wat geregeld hebben?

Lees meer
Bekijk alle onderwerpen →

Controleer uw AI-systemen nu

Gebruik de gratis risicoscan om te controleren of uw AI-systemen onder de verboden categorie vallen. Voorkom boetes tot €35 miljoen.

Start gratis risicoscanBekijk prijzen