AIComplianceHubAIComplianceHub
PlatformPrijzenWaarom?Over onsKennisbankContactInloggenGratis Risicoscan
PlatformPrijzenWaarom?Over onsKennisbankContactInloggen
Gratis Risicoscan
AIComplianceHubAIComplianceHub

Het AI-register en compliance-platform voor Nederlands MKB.

Product

RisicoscannerPlatformDemo bekijkenPrijzenPartnerContact

Informatie

Over onsKennisbankDeadlinesBoetesConformiteit

Sectoren

ICT & SoftwareZorgFinanceOverheidHR & RecruitmentOnderwijsAlle sectoren →

Juridisch

PrivacybeleidVoorwaarden
© 2026 AIComplianceHub.nl — Alle rechten voorbehoudenDit is een hulpmiddel, geen juridisch advies.
Terug naar kennisbank
25 maart 2026·8 min leestijd·Delen

AI in verzekeringen: underwriting, claims en de AI Act

In het kort

  • AI-pricing voor levens- en zorgverzekeringen is hoog-risico; schadeverzekeringen vallen er niet automatisch onder.
  • Fraudedetectie is een grijs gebied: behandel als hoog-risico in uw interne processen.
  • DNB en AFM zijn primaire toezichthouders; DORA en Solvency II stapelen op de AI Act.
  • Discriminatie-risico actief testen, inclusief indirecte discriminatie via proxy-variabelen.

In de verzekeringssector is AI niet meer weg te denken. Underwriting wordt ondersteund door algoritmes die risicoprofielen bouwen. Schadebehandeling wordt versneld met AI die claims beoordeelt. Fraudedetectie draait op machine learning. Chatbots handelen klantvragen af. De EU AI Act verandert het speelveld niet radicaal, maar voegt belangrijke verplichtingen toe die vooral bij levens- en zorgverzekeringen zwaar wegen.

Voor verzekeraars, tussenpersonen en schadeafhandelingskantoren is de vraag hoe de AI Act zich verhoudt tot bestaande regelgeving zoals Solvency II, de AVG en de IDD. Waar gaat het stapelen, waar kunt u integreren?

Hoog-risico: een beperkte maar belangrijke categorie

Bijlage III van de AI Act wijst een specifiek deel van verzekerings-AI aan als hoog-risico. Let goed op de exacte bewoording: het gaat om AI-systemen voor risicobeoordeling en prijsbepaling bij natuurlijke personen bij levensverzekeringen en zorgverzekeringen.

Dat betekent: verzekerings-AI voor schadeverzekeringen (auto, inboedel, aansprakelijkheid) valt niet automatisch onder hoog-risico. Maar AI voor het bepalen wie een levensverzekering kan afsluiten, welke voorwaarden er gelden en tegen welke premie, is hoog-risico. Hetzelfde geldt voor zorgverzekeringen, aanvullende ziektekostenverzekeringen, arbeidsongeschiktheidsverzekeringen en vergelijkbare persoonlijke dekkingen.

Verdere AI-toepassingen die de wet NIET expliciet als hoog-risico markeert:

Claims-beoordeling voor schadeverzekeringen

Fraudedetectie, hoewel grijs gebied (zie verderop)

Customer-service chatbots (transparantieverplichting geldt wel)

Marketing en lead-scoring

Anti-money-laundering (AML) monitoring

Let wel: ook beperkt-risico AI heeft verplichtingen. Transparantie richting klanten, AI-geletterdheid van medewerkers, documentatie van algoritmische besluitvorming.

Fraudedetectie: grijs gebied met zware implicaties

AI-fraudedetectie is niet in Bijlage III benoemd, maar de impact kan hoog-risico zijn in de praktijk. Een claim die wordt geweigerd op basis van een algoritme raakt de klant direct. Als het algoritme onterecht flaggedt, kan dat jaren juridische strijd opleveren.

De veilige aanpak: behandel fraudedetectie-AI als hoog-risico in uw interne processen. Implementeer menselijk toezicht voor elke materiele afwijking, documenteer beslissingen, voer bias-testen uit. Ook als de wet het niet strikt vraagt, beschermt het u tegen toezicht-interpretaties en reputatierisico's.

Solvency II en AI Act: parallel of geintegreerd?

Solvency II eist governance, risicomanagement en ORSA-documentatie (Own Risk and Solvency Assessment) van verzekeraars. De AI Act voegt specifieke AI-governance toe. Overlap is aanzienlijk.

Governance. Solvency II kent de drie lines-of-defense en bestuurlijke verantwoordelijkheid. Voor AI-governance hoort daar een duidelijke lijn in. Wie bij u is verantwoordelijk voor AI-modellen? Waar wordt dat besloten?

Model risk management. Solvency II heeft regels voor interne modellen (pillar 1). De AI Act stelt eisen aan hoog-risico AI-modellen. Integreer deze: een gecombineerd model-register met Solvency II-documentatie en AI Act-documentatie voorkomt dubbel werk.

ORSA. Het jaarlijkse ORSA-rapport kan AI-specifieke risico's opnemen. De AI Act-verplichte risicoanalyse wordt dan onderdeel van ORSA, niet een apart document.

IDD en transparantie

De Insurance Distribution Directive (IDD) verplicht verzekeraars en tussenpersonen tot eerlijke informatie aan klanten. AI-specifieke transparantie sluit hierop aan.

Als u AI gebruikt voor premiebepaling, moet de klant in begrijpelijke taal weten dat dit gebeurt, welke factoren worden meegewogen en dat hij recht heeft op uitleg bij afwijzing of hogere premie. Artikel 86 van de AI Act geeft natuurlijke personen dit recht op uitleg bij hoog-risico beslissingen die hen raken.

AVG en DPIA: al lang vertrouwd terrein

Verzekeraars werken met zeer gevoelige persoonsgegevens: gezondheidsdata, financiele gegevens, soms genetische informatie. De AVG vraagt al een DPIA voor zulke verwerkingen.

De AI Act-impactanalyse overlapt hier grotendeels mee. Integreer ze: een gecombineerd document dat privacy-risico's, AI-specifieke risico's (bias, ondoorzichtigheid, fout gedrag) en impact op betrokkenen samenbrengt.

De Autoriteit Persoonsgegevens heeft in het verleden meerdere keren scherpe kritiek gehad op verzekeraars. Bij AI-aangedreven profilering is de aandacht alleen maar toegenomen.

Discriminatie-risico: het grootste aandachtspunt

AI-pricing voor persoonlijke verzekeringen loopt tegen een hard ethisch vraagstuk aan. Risicoprofielen worden beter met meer data, maar meer data betekent ook meer kans op differentiatie die neerkomt op discriminatie.

De AI Act en de gender-neutraliteitseisen uit andere Europese wetgeving (Richtlijn 2004/113/EG, Richtlijn 2006/54/EG) verbieden directe discriminatie op beschermde kenmerken. Indirecte discriminatie via proxy-variabelen (postcode die sterk correleert met etniciteit, beroep dat sterk correleert met geslacht) is ook problematisch.

Wat verwacht wordt:

Documenteer welke beschermde kenmerken zijn uitgesloten als variabele.

Beoordeel systematisch of uw model proxy-variabelen gebruikt die feitelijk discriminerend werken.

Monitor uitkomsten: krijgen verschillende groepen gemiddeld verschillende premies of acceptatiepercentages bij vergelijkbare risicoprofielen?

Ontwerp het model om bias te corrigeren waar redelijk.

Toezichthouders en hun verwachtingen

DNB houdt toezicht op solvabiliteit, bestuur en risicobeheer. Hun AI-aandacht groeit. DNB publiceerde al in 2019 een eerste discussienota over AI bij verzekeraars, en de aandacht intensiveert met de AI Act.

De AFM toetst gedragstoezicht en klantbelang. Voor verzekeringsadvies, automatische schadeafhandeling en claims-beoordeling bent u bij AFM in beeld.

De Autoriteit Persoonsgegevens controleert naleving van de AVG. Voor AI-systemen die gezondheidsdata verwerken is AP de belangrijkste partner.

Voor de hoog-risico AI onder de AI Act komt in Nederland een specifieke AI-toezichthouder, die nauw samen zal werken met DNB, AFM en AP.

Wat verzekeraars nu moeten doen

Inventariseer al uw AI-systemen. Dit gaat verder dan de 'officiele' AI-projecten. Ook AI in standaardsoftware (CRM, claims-systemen, lead generation) telt mee.

Klassificeer per systeem. Onderscheid hoog-risico (persoonsverzekeringen-pricing), beperkt-risico (chatbots, claims-schade) en minimaal-risico (operationele AI).

Integreer documentatie. Solvency II-ORSA, AVG-DPIA en AI Act-impactanalyse kunnen in samenhangende documenten worden gebracht. Dat scheelt werk en maakt auditors tevreden.

Borg menselijk toezicht. Bij elk materieel pricing- of acceptatiebesluit moet een menselijke check mogelijk zijn. Klanten die afgewezen of hoger beprijsd worden, moeten recht op uitleg en herbeoordeling hebben.

Test op discriminatie. Zowel directe als indirecte. Regelmatige audits van uitkomsten zijn geen luxe maar noodzaak.

Train uw medewerkers in AI-geletterdheid. Underwriters, claims-handlers, compliance officers, management. AI-geletterdheid is sinds februari 2025 verplicht.

Bijzondere aandacht voor tussenpersonen en brokers

Verzekeringsadviseurs en onafhankelijke brokers gebruiken vaak AI-tools van anderen (vergelijkingsmodules, advies-AI). U bent dan deployer. De verplichtingen zijn lichter maar niet afwezig.

Eis van uw leveranciers transparantie over hun AI. Welke modellen zitten erin? Wat zijn de beperkingen? Zijn ze compliant met de AI Act?

Informeer uw klanten wanneer AI betrokken is bij het advies. Dit versterkt zowel compliance als klantrelatie.

Wat u vandaag kunt doen

Beginnen met AI Act-compliance in de verzekeringswereld vraagt een eerlijke inventarisatie. Met de gratis AI Risicoscanner van AIComplianceHub brengt u in vijf minuten uw AI-systemen in kaart en krijgt u een eerste classificatie.

Het platform ondersteunt u verder bij het opbouwen van uw AI-register, genereren van documentatie die integreert met Solvency II en AVG, en training van uw team. Alles in het Nederlands en afgestemd op de verzekeringspraktijk.

Verzekeraars zijn gewend aan regulering. De AI Act voegt een laag toe, maar een goed-opgezet compliance-kader integreert het in bestaande processen. Dat bespaart niet alleen werk, maar zorgt ook dat u overtuigend verhaal richting DNB, AFM en klanten heeft.

Weet u al waar uw organisatie staat?

Doe de gratis AI Risicoscanner en ontdek in 5 minuten welke verplichtingen gelden voor uw bedrijf.

Start gratis risicoscan

Lees ook

Hoe voert u een AI-risicoanalyse uit?

9 min

AI Act en HR: wat betekent de EU AI Act voor recruitment en personeelsselectie?

8 min

Meer lezen

Waarom AIComplianceHub.nl? →Bekijk prijzen →Gratis risicoscan →Alle artikelen →

Per sector

ICT & Software →Zorg →Finance →HR & Recruitment →Onderwijs →Retail →Accountancy →SaaS →Logistiek & Transport →Overheid & Gemeenten →Juridisch & Advocatuur →