Stel: een klant belt uw klantenservice en praat tien minuten met een virtuele assistent. Aan het eind vraagt de klant of hij met een mens heeft gesproken. Wat antwoordt u?
Onder de EU AI Act is dit geen retorische vraag meer. Artikel 50 legt duidelijke transparantieverplichtingen op aan organisaties die AI inzetten voor communicatie of het genereren van content. Wie niet voldoet, riskeert boetes. Want ook bij beperkt-risico AI heeft de wetgever tanden.
Wat regelt Artikel 50?
Artikel 50 van de AI Act verplicht aanbieders en gebruiksverantwoordelijken om mensen te informeren wanneer ze met AI te maken hebben. De verplichting valt uiteen in vier concrete situaties.
Ten eerste: chatbots en virtuele assistenten. Wie AI inzet om met mensen te communiceren, moet duidelijk maken dat het om AI gaat. Dit geldt tenzij de context het overduidelijk maakt, bijvoorbeeld bij een spelletje. Maar in professionele of commerciele contexten is er geen ontsnapping.
Ten tweede: deepfakes en AI-gegenereerde beelden of video. Content die nep-mensen of nep-situaties toont en via AI is gegenereerd of gemanipuleerd, moet als zodanig worden gelabeld. Dit geldt zowel voor fictieve content als voor realistische manipulaties van echte personen.
Ten derde: synthetische audio. Wie AI gebruikt om stemmen na te bootsen of te genereren, moet dit markeren. Een advertentie met een AI-gegenereerde stem hoort een label te dragen.
Ten vierde: AI-gegenereerde teksten over onderwerpen van publiek belang. Nieuwsartikelen, politieke analyses en vergelijkbare teksten die volledig door AI zijn geschreven, moeten als zodanig worden aangeduid.
Chatbots: hoe informeer je klanten?
De meest directe verplichting voor veel MKB-bedrijven zit bij klantenservice-chatbots. Denk aan een chatbot op uw website die vragen beantwoordt over openingstijden, bestellingen of veelgestelde vragen.
De AI Act is duidelijk: u moet aan het begin van het gesprek duidelijk maken dat de gebruiker met een AI-systeem communiceert. Niet ergens in de kleine lettertjes van uw privacyverklaring. Niet achteraf in een footer. Direct, proactief, zichtbaar.
In de praktijk zijn er meerdere manieren om dit te doen. U kunt een korte openingsmelding gebruiken, zoals: "Hoi! Ik ben Ava, de digitale assistent van [bedrijfsnaam]. Ik help u graag verder." Dat is voldoende als de aanduiding "digitale assistent" duidelijk is. Sommige platforms tonen ook een AI-badge naast de chatnaam.
Belangrijker dan de exacte formulering is de intentie. De gebruiker moet weten dat hij niet met een mens praat. Dat geeft hem de keuze: doorgaan met de AI, of vragen naar een medewerker.
Wat als de klant doorvraagt? Als iemand expliciet vraagt of hij met een mens of een AI spreekt, mag de AI nooit voorgeven een mens te zijn. Dit is een harde eis. Een chatbot die zegt "Ik ben gewoon een collega" of die de vraag ontwijkt, overtreedt de AI Act.
Deepfakes en AI-beelden: labeling verplicht
Wie AI-gegenereerde of AI-gemanipuleerde beelden gebruikt, moet deze zichtbaar labelen. Dit klinkt als een verplichting voor grote mediabedrijven. Maar het raakt ook het MKB, vaker dan u denkt.
Stel: u gebruikt een AI-tool om productfoto's te genereren of te verbeteren. Of u laat een marketingbureau AI-gegenereerde stockbeelden maken voor uw website. Of u maakt een promotievideo met een AI-gegenereerde stemacteur. In al die gevallen geldt: de content moet worden gelabeld als AI-gegenereerd.
Hoe? Voor beelden en video kan dat via een watermark, een bijschrift of een zichtbaar label. Voor audio via een melding aan het begin of einde van het fragment.
Want hier gaat het niet alleen om eerlijkheid. Het gaat om vertrouwen. Consumenten worden steeds kritischer op content die "te mooi" lijkt. Een duidelijk AI-label voorkomt reputatieschade en voldoet aan de wet.
Machine-leesbare markering: de technische kant
Naast de voor mensen zichtbare labeling eist de AI Act ook machine-leesbare markeringen. Dit betekent dat AI-gegenereerde content technisch moet worden voorzien van metadata die aangeeft dat het om AI-content gaat. Zo kunnen platformen, browsers en zoekmachines AI-content herkennen en labelen.
Hoe werkt dit in de praktijk? Denk aan standaarden als C2PA (Coalition for Content Provenance and Authenticity), die al door grote techbedrijven zoals Adobe, Microsoft en Google worden ondersteund. Content die via deze standaard is gemarkeerd, draagt digitaal bewijs van wie het heeft gemaakt, wanneer en hoe.
Voor de gemiddelde MKB-ondernemer klinkt dit technisch. Maar in de praktijk gaan de tools die u gebruikt dit steeds meer automatisch regelen. Adobe Photoshop en Firefly voegen al automatisch C2PA-metadata toe aan AI-gegenereerde content. Vergelijkbare ontwikkelingen zijn gaande bij andere platforms. Als u een platform gebruikt dat AI-content genereert, controleer dan of het machine-leesbare markering ondersteunt.
Deadlines: wat moet wanneer geregeld zijn?
Hier is enige nuance op zijn plaats. De AI Act heeft een gefaseerde invoering.
Vanaf augustus 2026 gelden de transparantieverplichtingen uit Artikel 50 volledig. Dit betekent dat u uw chatbots, AI-gegenereerde content en deepfake-labels voor die datum op orde moet hebben.
Maar voor de machine-leesbare markering van bestaande systemen geldt een uitzondering. Het Digital Omnibus-pakket, dat de EU in 2025 voorstelde, geeft organisaties iets meer tijd voor de technische implementatie bij reeds in gebruik zijnde systemen. Als dit pakket wordt aangenomen, geldt voor die systemen februari 2027 als uiterste datum. Nieuwe systemen die na augustus 2026 in gebruik worden genomen, moeten direct voldoen aan de volledige eisen.
De mensleesbare labeling, dus de zichtbare aanduiding voor de gebruiker, heeft geen uitstel. Die moet per augustus 2026 geregeld zijn.
Wat betekent dit voor uw MKB?
Laten we het concreet maken. Drie situaties die bij veel bedrijven voorkomen.
Klantenservice-chatbot
U heeft een chatbot op uw website, aangestuurd door een platform als Intercom, Trengo of Freshdesk met AI-functies. Controleer of het platform een openingsmelding ondersteunt die duidelijk maakt dat het om AI gaat. Zo niet, voeg dit toe aan de welkomsttekst. Zorg ook dat de chatbot nooit beweert een mens te zijn als ernaar gevraagd wordt. Niet complex, maar wel verplicht.
AI-gegenereerde marketingteksten
U gebruikt een tool als ChatGPT of Jasper om blogteksten, productomschrijvingen of social-mediaposts te schrijven. Wanneer is labeling verplicht? De AI Act richt zich op teksten over "onderwerpen van publiek belang." Productomschrijvingen voor uw webshop vallen daar doorgaans niet onder. Maar een nieuwsartikel op uw website, een opiniestuk of een analyse van marktontwikkelingen: dat ligt gevoeliger. Een voorzichtige aanpak is om bij volledig AI-gegenereerde teksten over maatschappelijk relevante onderwerpen een korte noot toe te voegen. Dat is ook goed voor uw geloofwaardigheid.
AI-gegenereerde visuals
U laat AI-tools zoals Midjourney of DALL-E beelden maken voor uw website of social media. Zeker als het gaat om beelden van mensen of situaties die realistisch ogen, is labeling verplicht. Een simpel bijschrift "Gegenereerd met AI" of een klein label in de afbeelding is voldoende. Controleer ook of het platform dat u gebruikt al automatisch C2PA-metadata toevoegt.
Boetes bij niet-naleving
Transparantieverplichtingen vallen niet in de zwaarste boetecategorie van de AI Act, maar ze zijn niet vrijblijvend. Overtredingen van Artikel 50 kunnen leiden tot boetes van maximaal 15 miljoen euro of 3 procent van de wereldwijde jaaromzet. Voor een MKB-bedrijf is dat serieus geld.
Daarnaast is er het reputatierisico. Een bedrijf dat klanten misleidt over het gebruik van AI verliest snel vertrouwen. Zeker nu consumenten steeds beter weten wat AI is en wat het kan.
Aan de slag
De transparantieverplichtingen uit Artikel 50 zijn voor de meeste MKB-bedrijven uitvoerbaar. Het vereist geen grote technische ingrepen. Wat het wel vraagt is bewustzijn: weet welke AI-systemen u inzet, wat ze communiceren naar uw klanten, en hoe u die communicatie transparant maakt.
Begin met een inventarisatie van uw AI-gebruik. Welke tools genereren content? Welke communiceren met klanten? Zijn die interacties transparant gelabeld?
De AI Risicoscanner van AIComplianceHub helpt u om snel in kaart te brengen welke verplichtingen voor uw organisatie gelden, inclusief de transparantieverplichtingen uit Artikel 50. Registreer uw chatbots en AI-tools in uw AI-register en genereer de benodigde documentatie. Zo staat u er goed voor als augustus 2026 aanbreekt.