Shadow AI is AI-gebruik binnen uw organisatie waarvan IT, compliance of management niets weet. Een marketingmedewerker die ChatGPT inzet voor klantmails. Een HR-medewerker die een rekrutering-AI in een gratis trial laat draaien. Een ontwikkelaar die productiedata in Claude.ai test om een feature te bouwen. Het is niet boze opzet maar gewoon hoe AI vandaag werkt: laagdrempelig, gratis, sneller dan elk officieel goedkeuringsproces.
Voor uw AI Act-compliance is dit een direct probleem. De wet eist dat u weet welke AI uw organisatie gebruikt, wie er verantwoordelijk voor is en welke risico's er spelen. Shadow AI maakt dat onmogelijk. Dit artikel legt uit waarom shadow AI een onderschat AI Act-risico is, hoe groot het probleem is in Nederlandse organisaties en hoe u het systematisch in kaart brengt.
Wat is shadow AI en hoe ontstaat het in de praktijk
Shadow AI is een variant van shadow IT, het bekende fenomeen waarbij medewerkers tools gebruiken die niet officieel zijn goedgekeurd. Bij shadow AI gaat het specifiek om kunstmatige intelligentie: chatbots, generatieve AI, transcriptiediensten, samenvattingstools, beeldgeneratie en steeds vaker AI-functies ingebouwd in andere SaaS-producten.
Drie patronen zien we vooral terug in Nederlandse organisaties.
Persoonlijke accounts. Een medewerker maakt een gratis ChatGPT-account aan met zijn werk-email of zelfs zijn privé-mail. Inputs gaan naar OpenAI op Amerikaanse servers en worden standaard gebruikt voor modeltraining (tenzij expliciet uitgezet). Geen verwerkersovereenkomst, geen logging vanuit IT, geen overzicht.
Ingebouwde AI in bekende tools. Microsoft Copilot in Office. Notion AI. Slack AI. Notta voor vergader-transcriptie. Otter voor sales-calls. Veel van deze functies activeren zichzelf met één klik in een bestaand abonnement, zonder dat de organisatie er specifiek voor heeft gekozen.
Bring-Your-Own-AI bij ontwikkeling. Ontwikkelaars die GitHub Copilot, Cursor of Claude Code gebruiken in hun IDE, soms met productiedata in prompts. Marketeers die Midjourney via een privé-Discord runnen voor klantcampagnes. Data-analisten die de OpenAI-API met een eigen credit card aanslingeren omdat IT te traag reageert.
Cijfers: hoe groot is het probleem in Nederland
Onderzoek naar shadow AI in Nederlandse organisaties is nog beperkt. De cijfers die er zijn, schetsen wel een consistent beeld. Microsoft Work Trend Index 2024 rapporteerde dat ruim driekwart van de kenniswerkers in West-Europa eigen AI-tools meeneemt naar de werkplek. Verschillende sectorrapporten schatten dat tussen 30 en 50 procent van het AI-gebruik in Nederlandse MKB- en mid-market-organisaties buiten zicht van IT plaatsvindt. Bij organisaties zonder formeel AI-beleid loopt dat op richting 60 procent.
De Autoriteit Persoonsgegevens noemt shadow AI in haar visiedocument 'Verantwoord vooruit' (februari 2026) als een van de drie grootste risico's bij generatieve AI in organisaties, naast hallucinaties en discriminatie via algoritmes. Voor de toezichthouder is het primair een AVG-probleem (verwerkingen zonder grondslag of overeenkomst). De raakvlakken met de AI Act zijn echter onvermijdelijk.
Waarom shadow AI direct een AI Act-risico is
Drie wetsartikelen raken shadow AI rechtstreeks.
Artikel 4: AI-geletterdheid. Sinds 2 februari 2025 moeten organisaties zorgen dat medewerkers die met AI werken voldoende kennis hebben. Dat lukt niet als u niet weet welke AI er wordt gebruikt. U kunt geen geletterdheid borgen voor tools die niemand bij u in beeld heeft. Toezicht-handhaving op Artikel 4 is mogelijk vanaf de inwerkingtreding. De AP heeft AI-geletterdheid als prioriteit benoemd in de Werkagenda 2026.
Artikel 5: verboden praktijken. Sinds februari 2025 zijn acht AI-praktijken verboden, met de zwaarste boetecategorie (tot 35 miljoen euro of 7 procent omzet). Twee categorieën raken shadow AI vaak. Emotieherkenning op de werkplek is verboden, ook als het 'incidenteel' gebeurt via een gratis tool. Sociaal scoren van personen op kenmerken die niets met de doelstelling te maken hebben is verboden. Een sales-tool die met emotieanalyse 'kooplust' meet kan onbedoeld in deze categorie vallen. Heeft niemand er overzicht van, dan ontdekt niemand het.
Artikel 26: deployer-verplichtingen. Voor hoog-risico AI gelden zware deployer-verplichtingen: menselijk toezicht, logbestanden bewaren, incidenten melden, instructies van de aanbieder volgen. Een marketingmedewerker die zonder overleg een AI-screeningstool voor leads gebruikt brengt de organisatie als deployer in overtreding zonder dat iemand het weet.
Naast deze drie raakt shadow AI ook de AVG (Artikel 28: zonder verwerkersovereenkomst is de verwerking onrechtmatig zodra er persoonsgegevens in zitten) en bij specifieke beroepsgroepen het beroepsgeheim (advocaten, notarissen, artsen, accountants).
Drie verboden praktijken die ongezien plaatsvinden
Ondernemers schrikken vaak als ze horen dat hun organisatie mogelijk al een verboden AI-praktijk uit Artikel 5 inzet. Dat gebeurt namelijk relatief vaak via shadow AI.
Emotieherkenning op de werkplek. Sales-software die 'engagement' meet via gezichtsherkenning op video-calls. Customer service-platformen die 'frustratie' detecteren in stem-tonen. HR-tools die sentimentanalyse doen op interne berichten. Allemaal verboden onder Artikel 5 lid 1 sub f, tenzij voor medische of veiligheidsdoeleinden.
Sociale scoring binnen de organisatie. Performance management-tools die scores combineren over rollen heen, op basis van kenmerken die niet met functie te maken hebben. Verboden onder Artikel 5 lid 1 sub c.
Untargeted scraping voor gezichtsherkenning. Bedrijven die een eigen gezichtsherkenning trainen door beelden van het internet of CCTV te scrapen voor security-doeleinden. Verboden onder Artikel 5 lid 1 sub e.
Geen van deze toepassingen is per definitie shadow AI. Het wordt shadow AI op het moment dat de organisatie er geen weet van heeft. De boetekans is dan groter dan bij een tool die wel onderdeel is van een formeel risico-traject.
AVG en beroepsgeheim worden direct geraakt door shadow AI
Voor sectoren met een wettelijk beroepsgeheim zijn de gevolgen van shadow AI extra zwaar. Een advocatenkantoor waarvan een medewerker clientdata in publieke ChatGPT typt, schendt artikel 11a Advocatenwet en riskeert verlies van het verschoningsrecht voor die specifieke informatie. Een notariskantoor waarbij hetzelfde gebeurt overtreedt artikel 22 Wet op het notarisambt. Een huisarts die een patiëntencasus laat samenvatten in Claude.ai overtreedt artikel 7:457 BW en de WGBO.
In al deze gevallen is shadow AI niet boze opzet maar onwetendheid. Dat helpt juridisch maar weinig: de wet is op resultaat geschreven, niet op intentie.
Hoe inventariseert u shadow AI in vier stappen
Een Shadow AI-inventarisatie is geen IT-project. Het is een combinatie van technische detectie en menselijke gesprekken. De effectieve aanpak heeft vier stappen.
Stap 1: technische detectie via netwerk- en SaaS-data. Vraag IT om logs van uitgaand verkeer naar bekende AI-domeinen (chat.openai.com, claude.ai, gemini.google.com, copilot.microsoft.com, midjourney.com). Bij organisaties met een SSO of CASM-tool kunt u gebruikersniveau zien. Voor kleinere organisaties zonder geavanceerde tooling: vraag naar Microsoft 365- en Google Workspace-rapporten over actieve AI-functies in tenant-licenties.
Stap 2: anonieme medewerkerssurvey. Stuur een korte vragenlijst rond waarin u niet vraagt of medewerkers AI gebruiken (defensieve antwoorden), maar welke AI ze kennen, voor welk werk ze AI nuttig vinden en welke tools collega's volgens hen inzetten. Anonimiteit is de sleutel. Medewerkers die bang zijn voor 'gepakt worden' antwoorden niet eerlijk.
Stap 3: koppel survey aan officieel toegestane lijst. Wat in de survey naar boven komt en niet op de officiële lijst staat, is per definitie shadow AI. Niet alle shadow AI is risicovol. Wel moet alle shadow AI een keuze van u krijgen: toestaan met afspraken, vervangen door een goedgekeurd alternatief, of verbieden.
Stap 4: classificeer en documenteer. Voor elke shadow AI-tool die blijft: leverancier vastleggen, welke data er wel en niet ingevoerd mag worden, het AI Act-risiconiveau bepalen, de verantwoordelijke binnen de organisatie aanwijzen. Hiermee verandert shadow AI in geregistreerde AI.
Wat verwacht een toezichthouder bij een controle
Bij een AP-bezoek of een controle door een sectorale toezichthouder (IGJ, AFM, DNB, ILT, Arbeidsinspectie) wordt naar concrete documentatie gevraagd. Op vier punten valt u door de mand als shadow AI niet in beeld is.
Een AI-register dat alle AI-systemen omvat. Een register dat alleen 'officiële' tools toont terwijl op werkstations duidelijk shadow AI loopt, is geen AI Act-conform register.
Bewijs van AI-geletterdheid voor alle medewerkers die met AI werken. Als drie sales-medewerkers ChatGPT gebruiken zonder dat ze ooit AI-training hebben gehad, is Artikel 4 niet nageleefd voor die rollen.
Verwerkersovereenkomsten met alle AI-leveranciers waar persoonsgegevens naartoe gaan. Voor publieke ChatGPT, Claude.ai en Gemini gratis: geen overeenkomst, dus AVG-overtreding.
Risicoanalyses voor hoog-risico systemen. Een AI-screeningstool die HR via een gratis trial inzet voor cv's, telt als hoog-risico onder Bijlage III. Geen risicoanalyse betekent geen compliance.
De kans dat een toezichthouder uitsluitend op shadow AI komt controleren is klein. De kans dat shadow AI tijdens een AVG-onderzoek of een AI Act-incidentmelding wordt blootgelegd is groot. Wanneer shadow AI dan in beeld komt, weegt het zwaar tegen u.
Vijf concrete acties die u deze week kunt nemen
Stuur een korte, anonieme survey naar alle medewerkers met de vraag welke AI-tools zij in hun werk gebruiken of nuttig zouden vinden. Vraag IT om een lijst van uitgaand verkeer naar de tien meest gebruikte AI-domeinen over de afgelopen 30 dagen. Inventariseer welke AI-functies in uw bestaande Microsoft 365-, Google Workspace- of Slack-tenant momenteel actief zijn. Stel een eenvoudig AI-beleid op met drie regels: welke AI mag, welke data mag er nooit in en hoe medewerkers nieuwe tools kunnen aanvragen. Plan voor de komende drie maanden een AI-geletterdheidsessie voor alle medewerkers die met AI werken (verplicht onder Artikel 4 sinds februari 2025).
Voor wie shadow AI structureel wil aanpakken: AIComplianceHub bouwt een Shadow AI Scan in (live in mei 2026) waarmee u in een paar klikken een anonieme medewerkerssurvey uitstuurt, het resultaat automatisch tegen de officiële tooling-lijst legt en het verschil als shadow AI markeert in uw AI-register. Tot die feature live is, geeft de gratis Risicoscanner u in vijf minuten een eerste beeld van uw AI Act-risicoprofiel.
Veelgestelde vragen
Is shadow AI een AI Act-overtreding op zichzelf?
Nee, shadow AI is geen specifieke overtreding in de AI Act. Maar shadow AI maakt naleving van Artikel 4 (geletterdheid), Artikel 5 (verboden praktijken) en Artikel 26 (deployer-verplichtingen) praktisch onmogelijk. Bij een toezichtsbezoek wordt gevraagd naar uw AI-register en bewijs van geletterdheid. Komt dan boven dat er meer AI in gebruik is dan u opvoert, dan staat u zwak.
Mag IT zomaar netwerklogs uitlezen om shadow AI te detecteren?
Logging van uitgaand verkeer naar AI-domeinen is in beginsel toegestaan onder de werkgeversbevoegdheid en het gerechtvaardigd belang uit de AVG, mits proportioneel en aangekondigd. Persoonlijke identificatie van individuele werknemers ligt gevoeliger en vraagt om een DPIA. Voor een organisatie-brede inventarisatie is geaggregeerde data (welke domeinen, hoeveel hits) voldoende.
Wat is het verschil tussen shadow AI en bring-your-own-AI?
Bring-your-own-AI (BYO-AI) is shadow AI met een neutralere naam: medewerkers die hun eigen AI-account meenemen naar de werkplek. Sommige organisaties accepteren BYO-AI bewust als beleid (mits met afspraken over data-input). Wordt het niet bewust gemanaged, dan blijft het shadow AI met dezelfde compliance-risico's.
Moet ik per shadow AI-tool een verwerkersovereenkomst regelen?
Alleen als de tool persoonsgegevens verwerkt namens uw organisatie. Voor ChatGPT Free of Plus (waar input naar OpenAI gaat zonder verwerkersovereenkomst) is het antwoord pragmatisch: niet de overeenkomst regelen achteraf, maar het gebruik stoppen of migreren naar een Enterprise-versie waar wel een verwerkersovereenkomst beschikbaar is.
Is Microsoft Copilot in onze 365-licentie ook shadow AI?
Alleen als u zich er niet bewust van bent dat het is geactiveerd. Copilot binnen een M365 Business- of Enterprise-licentie heeft een verwerkersovereenkomst en EU-data-residentie via de EU Data Boundary, dus AVG-technisch dekkend. Wat u wel moet doen: het opnemen in uw AI-register, AI-geletterdheidsstraining geven aan gebruikers en intern beleid opstellen over welke data wel en niet in Copilot-prompts mag.