Sinds eind 2025 heeft de Nederlandse Orde van Advocaten formele aanbevelingen voor AI-gebruik in de advocatuur. Drie elementen vragen directe aandacht: clienttoestemming voorafgaand aan AI-inzet, beroepsgeheim onder artikel 11a Advocatenwet, en het verschoningsrecht dat onder druk komt zodra vertrouwelijke data in een publiek AI-model belandt. Dit artikel zet de actuele stand op een rij en geeft een werkbaar AI-beleid voor het advocatenkantoor.
De NOvA-aanbevelingen 2025 en 2026
Eind november 2025 publiceerde de NOvA 'Aanbevelingen AI in de advocatuur', het eerste formele richtsnoer over AI-gebruik door advocaten. De aanbevelingen zijn opgebouwd rond de vijf kernwaarden uit artikel 10a Advocatenwet: onafhankelijkheid, partijdigheid, deskundigheid, integriteit en vertrouwelijkheid.
Op 17 maart 2026 volgde een aanvulling: 'Aanbevelingen AI in de praktijk', met concrete implementatie-handvatten. De combinatie van beide documenten is op dit moment het primaire normenkader voor AI in de advocatuur, naast de wet zelf.
De meest opvallende aanbeveling: vraag de client vooraf toestemming voor AI-inzet bij de behandeling van zijn dossier. Dit advies wijkt af van wat de Vlaamse Balies en de Duitse Bundesrechtsanwaltskammer (BRAK) voorschrijven en is dus een Nederlandse specialiteit. Het is geen wettelijke plicht. Wel is het tuchtrechtelijk relevant: bij een klacht bij de deken of de Raad van Discipline weegt het ontbreken van clienttoestemming als verzwarende omstandigheid mee.
Voor vertrouwelijkheid adviseert de NOvA: geen vertrouwelijke data in gratis of publieke applicaties, alleen strikt noodzakelijke informatie delen, geen client- of dossiergegevens in publieke modellen invoeren, en input plus output binnen de beveiligde kantooromgeving houden.
Verschoningsrecht onder druk bij publieke AI
Het verschoningsrecht is geen recht van de advocaat persoonlijk maar van de client. Het is gekoppeld aan de geheimhoudingsplicht uit artikel 11a Advocatenwet (van kracht sinds 1 januari 2015) en wordt erkend in het Wetboek van Strafvordering en de Algemene wet inzake rijksbelastingen. Verlies van vertrouwelijkheid betekent in de praktijk verlies van het verschoningsrecht voor die specifieke informatie.
De juridische literatuur waarschuwt sinds 2023 dat invoer van vertrouwelijke clientdata in een publiek AI-model kan worden gezien als verstrekking aan een derde. Bij ChatGPT Free of Plus komt input op Amerikaanse servers terecht en wordt standaard gebruikt voor modeltraining (tenzij expliciet uitgezet). Onder de Cloud Act of een Amerikaans gerechtelijk bevel kan OpenAI verplicht worden die data te verstrekken aan autoriteiten. Voor een advocaat is dat scenario dubbel risicovol: schending van het beroepsgeheim plus mogelijk verlies van het verschoningsrecht.
Tuchtuitspraken in 2024 en 2025
De Raad van Discipline heeft sinds 2024 meerdere advocaten gesanctioneerd voor onzorgvuldig AI-gebruik in processtukken. Drie advocaten kregen formele waarschuwingen omdat zij niet-bestaande jurisprudentie aanvoerden, gegenereerd door ChatGPT (zogenaamde AI-hallucinaties). Relevante uitspraken zijn onder meer ECLI:NL:TADRSGR:2024:110 en ECLI:NL:TADRSGR:2025:62 en 2025:210. De rode draad: artikel 46 Advocatenwet (zorgplicht) en de Gedragsregels-2018 zijn onverkort van toepassing op AI-output. De advocaat is en blijft eindverantwoordelijk voor wat in een processtuk staat, ook als het concept door een AI is opgesteld.
Deze tuchtuitspraken raakten technisch niet de geheimhoudingskant maar wel de zorgplichtkant van AI-gebruik. Beide kanten zijn een tuchtrechtelijk risico. Vandaar de noodzaak om een AI-beleid niet alleen op data-input maar ook op output-controle te stoelen.
Drie niveaus van AI-tools voor advocatuur
Welke AI mag u inzetten voor welk type werk? In de praktijk zijn er drie niveaus.
Niveau 1: publieke consumenten-AI. ChatGPT Free of Plus, Claude.ai gratis, Gemini gratis, perplexity.ai zonder enterprise-account. Niet bruikbaar voor clientzaken. Geen verwerkersovereenkomst, data wordt verwerkt op servers buiten de EU en standaard gebruikt voor modeltraining. Acceptabel voor productiviteitstaken zonder client- of dossiergegevens (kantoormarketing, intern leeronderzoek, een blogpost over een algemeen juridisch onderwerp).
Niveau 2: zakelijke AI met verwerkersovereenkomst. ChatGPT Enterprise, Microsoft Copilot for Business, Anthropic Claude voor Teams, en gespecialiseerde juridische platforms als Harvey, Robin AI of Eve. Bij deze tools is er een verwerkersovereenkomst, modeltraining op uw input wordt uitgeschakeld en data wordt versleuteld. Bruikbaar voor concept-correspondentie, interne memo's en samenvattingen, mits het kantoor heeft vastgelegd welke gegevens wel en niet ingevoerd mogen worden en de client vooraf toestemming heeft gegeven.
Let bij niveau 2 op twee dingen. Eerste punt: hosting-locatie. Microsoft 365 EU Data Boundary helpt, maar is geen volledige garantie tegen Cloud Act-toegang. Tweede punt: model-keuze. Sommige enterprise-aanbieders routeren prompts via Amerikaanse subprocessors voor specifieke modellen.
Niveau 3: private AI in eigen IT-omgeving. Een lokaal draaiend taalmodel of een Europees gehost private LLM bij een EU-aanbieder zonder Cloud Act-blootstelling. Bijvoorbeeld een fine-tuned Mistral-deployment op een Europese cloud, of een AI-feature binnen advocatensoftware waarbij data het kantoor niet verlaat. Voor dossierwerk de meest verantwoorde optie. Hogere kosten, maar volledige controle over data.
Een werkbaar AI-beleid in vijf stappen
Een schriftelijk AI-beleid is voor advocatenkantoren geen wettelijke verplichting, maar bij een tuchtklacht of dekencontrole is het het eerste document dat wordt opgevraagd.
Stap 1: inventariseer alle AI-tools. ChatGPT, Microsoft Copilot, transcriptie-software (Otter, Microsoft Teams Copilot), samenvattingstools in Outlook, AI-functies in het dossiersysteem (Bighand, Visma, Cleopatra). Vraag het bij elke advocaat en stafmedewerker na, niet alleen IT.
Stap 2: classificeer per tool. Bepaal het niveau (publiek, zakelijk, privaat) en leg per tool vast: welke data wel en welke data nooit ingevoerd mag worden. Twee kolommen volstaan.
Stap 3: regel clienttoestemming via uw opdrachtbevestiging. Pas de standaardvoorwaarden aan met een AI-clausule waarin staat welke tools u inzet, voor welk doel, en wat de waarborgen zijn. Geef de client de mogelijkheid om expliciet bezwaar te maken. Documenteer per dossier of toestemming is gegeven, gewijzigd of geweigerd.
Stap 4: borg de zorgplicht op de output. Maak het beleid expliciet over output-controle: AI-output wordt nooit ongelezen in een processtuk overgenomen, jurisprudentie wordt altijd handmatig geverifieerd, en eindverantwoordelijkheid blijft bij de behandelend advocaat. Dit is de directe les uit de tuchtuitspraken-2024-2025.
Stap 5: borg AI-geletterdheid (Artikel 4 AI Act). Sinds 2 februari 2025 verplicht artikel 4 van de EU AI Act dat alle medewerkers die met AI werken voldoende kennis hebben. Voor een advocatenkantoor: een korte opleiding (1 tot 2 uur online) over AI-basis, beperkingen, hallucinatie-risico, beroepsgeheim en verschoningsrecht. Documenteer wie wanneer is opgeleid.
Is AI in de advocatuur hoog-risico onder de AI Act?
Voor de meeste advocatenkantoren niet automatisch. Recital 61 van de AI Act kwalificeert AI bij de rechtspleging als hoog-risico, maar zondert AI-gebruik voor puur ondersteunende administratieve taken (anonimiseren, agenda, interne communicatie) uit. Een AI-tool die concept-correspondentie opstelt of jurisprudentie samenvat valt daar meestal onder.
Wordt AI ingezet om zelfstandig juridische conclusies te trekken of speelt zij een wezenlijke rol in alternatieve geschilbeslechting met bindende juridische gevolgen, dan kan hoog-risico classificatie wel aan de orde komen. Recital 61 noemt ADR-bodies expliciet.
Voor de meeste kantoren raken eerder drie andere onderdelen van de AI Act: AI-geletterdheid (Art. 4, al verplicht), transparantie bij AI-content of chatbots op uw website (Art. 50, juridisch vanaf 2 augustus 2026; via het Digital Omnibus-voorstel naar verwachting verschoven naar eind 2026) en het AVG-kader voor clientdata.
Een AI-register voor uw kantoor
Een intern AI-register is geen wettelijke plicht voor advocatenkantoren maar bewijst onder NOvA-toezicht en onder de AI Act dat u zorgvuldig handelt. Per AI-systeem legt u vast: naam en leverancier, doel van inzet, welke data wel en niet ingevoerd mag worden, het niveau (1, 2 of 3), de verantwoordelijke binnen het kantoor en de datum van laatste review. Een spreadsheet werkt voor kleine kantoren; een AI-register-platform wordt praktisch zodra u meer dan vijf tools heeft of een tuchtprocedure voor de deur staat.
Vijf concrete acties voor deze week
Verbied formeel de invoer van clientdata in publieke ChatGPT, Claude of Gemini via een interne kantoormail. Pas uw opdrachtbevestiging aan met een AI-clausule die clienttoestemming regelt. Plan een AI-geletterdheidsessie voor het volledige kantoor (Art. 4 deadline is verstreken). Verifieer in alle lopende processtukken handmatig de aangehaalde jurisprudentie. Lees de NOvA-aanbevelingen 2025 en de praktijk-aanvulling 2026 en stel uw beleid daarop af.
Voor wie het structureel wil aanpakken: AIComplianceHub bouwt een AI-register, AI-beleid en e-learning specifiek voor het Nederlandse MKB, inclusief advocatenkantoren. De gratis Risicoscanner geeft u in vijf minuten een eerste beeld van waar uw kantoor staat.
Veelgestelde vragen
Wat is precies de NOvA-aanbeveling over clienttoestemming?
De NOvA adviseert advocaten om vooraf toestemming aan de client te vragen wanneer AI wordt ingezet bij de behandeling van zijn dossier. Dit is geen wettelijke plicht maar een tuchtrechtelijke zorgvuldigheidsnorm. In de praktijk vertaalt dit zich naar een AI-clausule in de opdrachtbevestiging waarin u beschrijft welke tools u gebruikt, met welke waarborgen, en de mogelijkheid voor de client om bezwaar te maken.
Verlies ik het verschoningsrecht als ik clientdata in ChatGPT invoer?
Het juridische standpunt is dat invoer van vertrouwelijke informatie in een publiek AI-model kan worden gezien als verstrekking aan een derde. Wanneer dat zo wordt geoordeeld, vervalt het vertrouwelijkheidskarakter en daarmee het verschoningsrecht voor die informatie. Concrete jurisprudentie hierover ontbreekt nog in Nederland, maar tegenpartijen in strafzaken, fiscale zaken en civiele procedures kunnen dit punt opwerpen. Risicobeperking via niveau 2 of 3 tools (zie hierboven) is dus niet alleen tuchtrechtelijk maar ook procesrechtelijk relevant.
Wat zeggen de tuchtuitspraken-2024-2025 over AI?
De Raad van Discipline heeft sinds 2024 meerdere advocaten gesanctioneerd die in processtukken niet-bestaande jurisprudentie aanvoerden, gegenereerd door ChatGPT. Onder meer ECLI:NL:TADRSGR:2024:110 en ECLI:NL:TADRSGR:2025:62 en 2025:210. De boodschap: artikel 46 Advocatenwet (zorgplicht) is onverkort van toepassing op AI-output. Eindverantwoordelijkheid voor wat in een processtuk staat blijft bij de advocaat, niet bij de AI-tool.
Wat als de client zegt 'gebruik geen AI voor mijn dossier'?
Dan respecteert u dat. De client kan voor zijn dossier een AI-totaalverbod afspreken. Documenteer dit zichtbaar in het dossier en zorg dat alle medewerkers ervan op de hoogte zijn. Voor gevoelige strafzaken, due diligence in M&A en zaken met verhoogd geheimhoudingsbelang kan een AI-totaalverbod ook uw default-positie zijn.
Moet ik mijn ISO 27001 of NEN 7510 aanpassen voor AI-gebruik?
Niet direct, maar wel in samenhang. Bestaande informatieveiligheidstandaarden dekken vertrouwelijkheid en encryptie, niet de specifieke AI Act-eisen rond AI-geletterdheid (Art. 4), transparantie (Art. 50) en menselijk toezicht (Art. 14, 26). De pragmatische aanpak: breid uw bestaande managementsysteem uit met AI-specifieke procedures, in plaats van een tweede systeem op te zetten.