AIComplianceHubAIComplianceHub
PlatformPrijzenWaarom?Over onsKennisbankContactInloggenGratis Risicoscan
PlatformPrijzenWaarom?Over onsKennisbankContactInloggen
Gratis Risicoscan
AIComplianceHubAIComplianceHub

Het AI-register en compliance-platform voor Nederlands MKB.

Product

RisicoscannerPlatformDemo bekijkenPrijzenPartnerContact

Informatie

Over onsKennisbankDeadlinesBoetesOnderwijsConformiteit

Sectoren

ICT & SoftwareZorgFinanceOverheidHR & RecruitmentAlle sectoren →

Juridisch

PrivacybeleidVoorwaarden
© 2026 AIComplianceHub.nl — Alle rechten voorbehoudenDit is een hulpmiddel, geen juridisch advies.
Terug naar kennisbank
14 april 2026·8 min leestijd

AI in het onderwijs: wat de AI Act betekent voor scholen, universiteiten en EdTech

Kunstmatige intelligentie transformeert het onderwijs in hoog tempo. Universiteiten zetten AI in om tentamens te bewaken. Basisscholen werken met adaptieve leersystemen die zich aanpassen aan het niveau van elk kind. EdTech-bedrijven ontwikkelen tools die docenten uren aan nakijkwerk besparen. Maar met de komst van de EU AI Act verandert het speelveld. Het onderwijs is namelijk aangemerkt als hoog-risico domein.

Wat betekent dat precies? Welke AI-toepassingen worden geraakt? En wat moet uw onderwijsinstelling of EdTech-bedrijf regelen om aan de wet te voldoen?

Waarom het onderwijs een hoog-risico domein is

De AI Act classificeert AI-systemen aan de hand van het risico dat ze vormen voor mensen. In Bijlage III van de verordening staat een lijst van domeinen waar AI-gebruik als hoog risico geldt. Onderwijs en beroepsopleiding staan daar expliciet op.

De redenering is helder. AI-systemen in het onderwijs nemen beslissingen die de toekomst van mensen beinvloeden. Een algoritme dat bepaalt of een student wordt toegelaten tot een opleiding, raakt het recht op onderwijs. Een systeem dat toetsen beoordeelt, beinvloedt diploma's en carrierekansen. De gevolgen van fouten of vooroordelen in zulke systemen zijn groot en soms onomkeerbaar.

Niet elke AI-toepassing in het onderwijs is automatisch hoog risico. Een spellingscontrole in een schoolbibliotheeksysteem hoeft niet aan dezelfde strenge eisen te voldoen als een systeem dat selectiebeslissingen neemt. Het draait om de kernvraag: heeft het AI-systeem een materiele invloed op beslissingen die leerlingen of studenten raken?

Welke AI-toepassingen worden geraakt?

De lijst is langer dan veel onderwijsinstellingen beseffen.

AI voor toetsing en beoordeling is het meest voor de hand liggende voorbeeld. Denk aan systemen die open vragen automatisch nakijken, die essays beoordelen op kwaliteit, of die een cijfer toekennen op basis van patroonherkenning. Zodra een AI-systeem invloed heeft op de beoordeling van een leerling of student, is het waarschijnlijk hoog risico.

Toelatings- en selectiesystemen vormen een tweede categorie. Sommige universiteiten en hogescholen experimenteren met AI om aanmeldingen te screenen of te rangschikken. Elk systeem dat meebesluit over wie wordt toegelaten, valt onder de strengste regels.

Leerlingvolgsystemen (LVS) zijn in Nederland wijdverbreid. Systemen als ParnasSys en LOVS gebruiken data om de voortgang van leerlingen te monitoren. Wanneer deze systemen AI inzetten om voorspellingen te doen over leerprestaties of adviezen te genereren voor het schoolniveau, raakt dit de hoog-risico grens.

AI-proctoring is een bijzonder gevoelig onderwerp. Tijdens de coronapandemie groeide het gebruik van online surveillancetools voor tentamens explosief. Systemen als Proctorio en ProctorExam analyseren webcambeelden, toetsaanslagen en browsgedrag om fraude te detecteren. Dat combineert biometrische verwerking met beslissingen over studenten. Hoog risico, zonder twijfel.

Plagiaatdetectie met AI is een grijs gebied. Turnitin heeft een AI-detector toegevoegd die beoordeelt of tekst door AI is geschreven. Wanneer docenten dit resultaat gebruiken om een student van fraude te beschuldigen, heeft het systeem directe impact. De classificatie hangt af van hoe het systeem wordt ingezet. Puur als hulpmiddel voor de docent? Of als bepalende factor in een fraudebeslissing?

Adaptieve leerplatformen zoals Snappet, Gynzy en Learnbeat passen de leerstof aan op basis van het niveau en de voortgang van de leerling. Wanneer het platform alleen oefenstof varieert, is het risico beperkter. Doet het platform aanbevelingen over het leerniveau of de leerroute van een kind? Dan groeien de verplichtingen.

Het verbod op emotieherkenning in het onderwijs

Artikel 5 van de AI Act bevat een opvallende bepaling. AI-systemen die emoties herkennen op de werkplek en in onderwijsinstellingen zijn verboden. Dit verbod geldt al sinds 2 februari 2025.

Wat valt hieronder? Systemen die via gezichtsherkenning, stemanalyse of lichaamshouding proberen te bepalen of een student aandachtig is, gefrustreerd raakt of verveeld is. Sommige EdTech-bedrijven hebben zulke functies aangeboden als middel om "engagement" te meten. Onder de AI Act mag dit niet meer.

Er zijn twee beperkte uitzonderingen: emotieherkenning voor medische doeleinden of voor veiligheidsdoeleinden. Maar het meten van studentbetrokkenheid of aandacht valt daar niet onder. Punt.

Gebruikt uw instelling software die claimt emoties of aandacht van leerlingen te meten? Faseer dit direct uit.

Scholen als deployers, EdTech als providers

De AI Act maakt onderscheid tussen aanbieders (providers) en gebruiksverantwoordelijken (deployers). Dit onderscheid is cruciaal voor het onderwijs.

EdTech-bedrijven die AI-systemen ontwikkelen en op de markt brengen, zijn aanbieders. Zij dragen de zwaarste verplichtingen: conformiteitsbeoordeling, technische documentatie, risicobeheersysteem, CE-markering voor hoog-risico systemen. Zij moeten garanderen dat hun product aan de wet voldoet voordat het op de markt komt.

Scholen, universiteiten en andere onderwijsinstellingen zijn doorgaans deployers. Zij kopen AI-tools in en zetten deze in binnen hun organisatie. Maar ook deployers hebben verplichtingen die niet vrijblijvend zijn.

U moet het AI-systeem gebruiken volgens de instructies van de aanbieder. U moet zorgen voor menselijk toezicht op het systeem. Leerlingen en studenten (of hun ouders) moeten worden geinformeerd dat AI wordt gebruikt. Voor hoog-risico systemen is een risicoanalyse vereist. Elk systeem hoort in uw AI-register te staan.

Hier zit een belangrijk aandachtspunt. Veel onderwijsinstellingen gebruiken AI-tools zonder zich bewust te zijn van hun rol als deployer. Een school die een adaptief leerplatform inkoopt, is wettelijk verplicht om te controleren of de aanbieder aan de AI Act voldoet. Vraag uw leverancier naar de conformiteitsverklaring. Kan die niet worden geleverd? Dat is een serieus risicosignaal.

Menselijk toezicht: de docent houdt de regie

Een kernprincipe van de AI Act bij hoog-risico systemen is menselijk toezicht. In het onderwijs betekent dit concreet: de docent blijft verantwoordelijk voor beslissingen die leerlingen raken.

Een AI-systeem mag een toets nakijken, maar een docent moet het eindcijfer kunnen bijstellen. Een systeem mag een schoolniveau-advies genereren, maar het advies van de docent weegt zwaarder. Een proctoringtool mag verdacht gedrag signaleren, maar een mens beslist of er daadwerkelijk sprake is van fraude.

Dit klinkt vanzelfsprekend. In de praktijk sluipt automatisering erin. Wanneer 95 procent van de AI-beoordelingen wordt overgenomen zonder menselijke controle, is het toezicht een papieren werkelijkheid geworden. De AI Act vraagt om daadwerkelijk, betekenisvol menselijk toezicht. Geen stempelmachine.

Transparantie naar leerlingen en ouders

Onderwijsinstellingen moeten transparant zijn over hun gebruik van AI. Leerlingen, studenten en (bij minderjarigen) ouders hebben het recht om te weten wanneer AI wordt ingezet bij beoordeling, selectie of begeleiding.

Wat houdt dat in? Informeer leerlingen en ouders actief over welke AI-systemen worden gebruikt. Leg uit waarvoor de systemen dienen en welke rol ze spelen in beslissingen. Bied de mogelijkheid om bezwaar te maken of een menselijke herbeoordeling te vragen. Documenteer dit alles in uw AI-register.

Voor universiteiten geldt dit ook bij proctoring. Studenten moeten vooraf weten dat AI wordt ingezet om hun tentamen te bewaken, welke data worden verzameld en hoe deze worden verwerkt. Geen verrassing achteraf.

AI-geletterdheid: docenten voorbereiden

Artikel 4 van de AI Act verplicht alle organisaties die AI gebruiken om te zorgen voor AI-geletterdheid bij hun personeel. Voor het onderwijs is deze verplichting extra relevant. De plicht geldt al sinds 2 februari 2025.

Docenten zijn de eerste lijn. Zij werken dagelijks met AI-tools en nemen beslissingen op basis van AI-uitkomsten. Een leraar die een leerlingvolgsysteem gebruikt maar niet begrijpt hoe de AI-voorspellingen tot stand komen, kan verkeerde conclusies trekken. Een docent die blind vertrouwt op een AI-plagiaatdetector, riskeert een onterechte fraudebeschuldiging.

AI-geletterdheid voor docenten gaat verder dan een basiscursus "wat is AI". Het draait om praktisch begrip van de tools die zij gebruiken. Hoe werkt het adaptieve algoritme van het leerplatform? Welke data verwerkt de proctoringtool? Hoe betrouwbaar zijn de uitkomsten van de plagiaatdetector? Wanneer moet ik als docent ingrijpen?

Hier ligt een taak voor schoolbesturen en universiteitsbesturen. Investeer in gerichte training. Niet een eenmalige workshop, maar een doorlopend programma dat meeontwikkelt met de technologie.

Praktische stappen voor onderwijsinstellingen

Wat moet u nu concreet doen?

Breng alle AI-systemen in kaart. Loop alle software langs die uw instelling gebruikt. Zit er AI in het leerlingvolgsysteem? In de toetsomgeving? In administratieve systemen? Vergeet het digitale leermateriaal niet. Maak een complete lijst.

Classificeer elk systeem. Bepaal per systeem of het hoog risico is. De kernvraag blijft: beinvloedt dit systeem beslissingen over leerlingen of studenten?

Controleer op verboden toepassingen. Software die emoties of aandacht van leerlingen meet, is verboden sinds februari 2025. Faseer het uit als u het nog gebruikt.

Vraag leveranciers om documentatie. EdTech-aanbieders zijn verantwoordelijk voor conformiteitsbeoordelingen en technische documentatie. Vraag hier actief naar. Een leverancier die dit niet kan leveren, vormt een compliance-risico voor uw instelling.

Richt menselijk toezicht in. Zorg dat docenten altijd de mogelijkheid hebben om AI-beslissingen te corrigeren of te overrulen. Automatische beoordelingen zonder menselijke controle zijn onvoldoende.

Informeer leerlingen en ouders. Stel een helder overzicht op van de AI-systemen die u gebruikt en communiceer dit actief. De schoolgids of het studentenstatuut is een logische plek.

Train uw docenten. Zorg voor AI-geletterdheid op maat. Niet alleen theorie, maar praktische kennis over de specifieke tools die binnen uw instelling worden gebruikt.

Bouw een AI-register op. Documenteer alle AI-systemen, hun classificatie, de genomen maatregelen en de verantwoordelijke personen. Dit register is uw bewijs van compliance bij een eventuele inspectie.

EdTech-bedrijven: bereid u voor

Voor EdTech-bedrijven die AI-producten leveren aan het onderwijs, zijn de verplichtingen stevig. U bent aanbieder van een hoog-risico AI-systeem. Dat betekent: een volledig risicobeheersysteem, technische documentatie, data governance, logging, menselijk toezicht inbouwen in het product, een conformiteitsbeoordeling en registratie in de EU-databank.

Dat is fors. Maar het is ook een kans. EdTech-bedrijven die als eerste aantoonbaar voldoen aan de AI Act, hebben een concurrentievoordeel. Scholen en universiteiten zoeken leveranciers die hen niet in de problemen brengen. Compliance wordt een verkoopargument.

Begin met een inventarisatie

Of u nu een basisschool runt, een universiteit bestuurt of een EdTech-product ontwikkelt: de eerste stap is altijd hetzelfde. Breng in kaart welke AI u gebruikt en welke risico's daaraan verbonden zijn.

De AI Risicoscanner van AIComplianceHub helpt u hierbij. In vijf minuten ontdekt u welke van uw AI-systemen als hoog risico gelden en welke verplichtingen daarbij horen. Van daaruit kunt u in het platform uw AI-register opbouwen, de benodigde documentatie genereren en uw team trainen op AI-geletterdheid. Zo bent u voorbereid wanneer de toezichthouder aanklopt.

Weet u al waar uw organisatie staat?

Doe de gratis AI Risicoscanner en ontdek in 5 minuten welke verplichtingen gelden voor uw bedrijf.

Start gratis risicoscan

Lees ook

Hoe voert u een AI-risicoanalyse uit?

9 min

AI Act en HR: wat betekent de EU AI Act voor recruitment en personeelsselectie?

8 min

Meer lezen

Waarom AIComplianceHub.nl? →Bekijk prijzen →Gratis risicoscan →Alle artikelen →

Per sector

ICT & Software →Zorg →Finance →HR & Recruitment →Onderwijs →Retail →Accountancy →SaaS →Logistiek & Transport →Overheid & Gemeenten →Juridisch & Advocatuur →