AI Act in de praktijk: waarom verzekeraars hun datastructuur opnieuw moeten ontwerpen

De AI Act wordt in de verzekeringsbranche nog vaak gezien als “iets voor data scientists” of als een abstract juridisch kader dat vooral gaat over modellen, risico’s en documentatie. Maar dat beeld klopt niet. De AI Act gaat veel minder over modellen dan mensen denken, en veel meer over de kwaliteit, herleidbaarheid en structuur van de data waar die modellen op draaien.

En precies daar wringt het binnen veel verzekeraars.

Veel organisaties geloven dat AI “gewoon ingezet kan worden” op de data die er al ligt — dezelfde data waar we al jaren conversies, integraties en migraties mee doen. Maar zoals bij alles in IT-land: shit in is shit out. Je kunt de mooiste modellen bouwen, maar als de onderliggende data rammelt, dan automatiseer je vooral je eigen rommel.

De kern van het probleem: AI wordt sneller bedacht dan datalandschappen kunnen bijbenen

Binnen verzekeraars zie je een duidelijk patroon:

  • Sommige teams hebben geen idee dat de AI Act eraan komt.
  • Andere teams proberen al te compliance-rennen voordat ze kunnen datalopen.
  • En de meeste teams zijn vooral bezig met AI bouwen, niet met AI verantwoord inzetten.

AI staat op de roadmap, AI Act staat in de bijlage. Maar in werkelijkheid zouden die twee één geheel moeten zijn.

Bij de meeste verzekeraars zijn de datastructuren simpelweg niet audit-proof voor AI — en dat betekent dat het grootste risico bij AI niet de technologie is, maar het landschap waar het op draait.


De drie grootste tekortkomingen — én de technische deep-dive die laat zien waarom dit echte blockers zijn

1. Geen herleidbaarheid (lineage)

Iedereen roept dat lineage belangrijk is, maar bijna niemand heeft het écht geregeld. Herleidbaarheid betekent dat je exact kunt aantonen:

  • waar een datapunt vandaan komt,
  • hoe het door je landschap stroomt,
  • welke transformaties hebben plaatsgevonden,
  • welke systemen en modellen dat datapunt aanraken,
  • en welke beslissingen erop zijn gebaseerd.

Waarom lineage cruciaal wordt onder de AI Act

De AI Act vereist dat elke uitkomst van een AI-model uitlegbaar is. Uitlegbaarheid = herleidbaarheid + logica + controle.

Zonder lineage heb je:

  • geen betrouwbaar auditspoor,
  • geen bewijs dat je data klopt,
  • geen zicht op biasvorming,
  • geen uitleg-mogelijkheid bij modelbesluiten,
  • en geen mogelijkheid om fouten terug te draaien.

Technisch probleem bij verzekeraars

Veel verzekeraars hebben:

  • ETL-ketens die niemand meer begrijpt,
  • datastromen die via meerdere systemen lopen zonder degelijke documentatie,
  • Excel-metamapping die als “lineage” wordt gezien,
  • schaduw-datasets in teams die ‘even’ gekopieerd zijn,
  • en monolieten zonder logging van datatransformaties.

Een model kan niet uitlegbaar zijn als de data die erin gaat dat niet is.


2. Geen eigenaarschap van datadomeinen

Datasets zonder eigenaar zijn datasets zonder richting. En onder de AI Act betekent dat: datasets zonder toekomst.

Wat eigenaarschap betekent onder AI Act

De AI Act vereist accountability. Dat betekent dat iemand:

  • definities bepaalt,
  • kwaliteit bewaakt,
  • wijzigingen beoordeelt,
  • risico’s accepteert of afwijst,
  • en kan uitleggen hoe data moet worden geïnterpreteerd.

Waarom dit bij verzekeraars structureel misgaat

Veel datadomeinen zijn ‘collectief bezit’. Dat voelt gezellig, maar in werkelijkheid betekent het:

  • niemand is verantwoordelijk,
  • iedereen interpreteert data anders,
  • er is geen eenduidige definitieset,
  • en wijzigingen worden gedaan zonder afstemming.

Technische impact

Zonder eigenaarschap krijg je:

  • definities die per systeem verschillen,
  • inconsistenties in historische data,
  • belangrijke velden die nooit worden gevuld,
  • bronsystemen die elkaar tegenspreken,
  • en modellen die “rare keuzes” maken omdat de brondata rammelt.

Een AI-model kan niet meer verantwoordelijkheid dragen dan de data-eigenaar bereid was te nemen.


3. Gebrek aan datakwaliteit

De klassieker. En nee, we hebben het niet over wat ontbrekende velden of verkeerde waardes. We hebben het over structurele dataproblemen die door de hele keten lekken.

Typische datakwaliteitsproblemen bij verzekeraars

  • dezelfde polis komt in meerdere systemen net anders voor,
  • ontbrekende registratiedatums,
  • inconsistent gebruik van coderingen,
  • incomplete historie,
  • afwijkende definities tussen teams,
  • en datamodellen die nooit ontworpen zijn voor AI.

Waarom datakwaliteit onder de AI Act écht een harde eis wordt

De AI Act eist onder andere:

  • accurate datasets,
  • representatieve datasets,
  • volledige datasets,
  • datasets zonder systematische bias.

Dat betekent dat de datakwaliteit in de basis veel hoger moet zijn dan bij BI, rapportages of conversies.

Technisch gevolg

AI-modellen op slechte data leiden tot:

  • foutieve risicoprofielen,
  • verkeerde klantsegmentaties,
  • ‘vreemde’ beslissingen die niemand kan uitleggen,
  • biasrisico’s,
  • en auditbevindingen die maanden werk kosten.

De AI Act in 5 minuten: hoe risico-classificaties écht werken

Veel organisaties denken dat AI “pas hoog risico wordt” als je klantbesluiten volledig automatiseert. Maar dat is onjuist.

De AI Act onderscheidt verschillende risicoklassen. Hier zijn de categorieën die belangrijk zijn voor verzekeraars:

Verboden AI (Prohibited AI)

Voorbeelden:

  • manipulatieve AI,
  • emotieherkenning op de werkvloer,
  • AI die kwetsbare groepen targeted op een misleidende manier.

Verzekeraars zitten hier meestal niet snel aan, maar moeten het wél aantoonbaar vermijden.

Hoog risico (High-Risk AI)

Hier valt de verzekeringsbranche vaak wél onder.

Voorbeeldtoepassingen:

  • AI in claimsbesluitvorming,
  • AI in risicobeoordeling,
  • AI die invloed heeft op polisvoorwaarden of acceptatie,
  • scoringsmodellen die klanten indelen in risicogroepen.

High-risk verplicht onder andere:

  • volledige uitlegbaarheid,
  • strikte data governance,
  • risicobeheer,
  • logging en monitoring,
  • traceerbaarheid,
  • documentatie van trainingsdata,
  • menselijke controle.

Met andere woorden: High-risk AI is een architectuuropgave, geen modelopgave.

Limited Risk

Bijvoorbeeld:

  • AI-gedreven chatbots,
  • AI-ondersteuning in processen zonder besluitvorming,
  • voorspellende analyses zonder directe klantimpact.

Ook hier blijft noodzakelijk:

  • transparantie,
  • duidelijkheid dat AI wordt ingezet,
  • controleerbaarheid.

Minimal Risk

Denk aan zaken als spell-checkers of AI die het werk niet wezenlijk beïnvloedt. Nauwelijks relevant voor verzekeraars.


De nuchtere realiteit: AI is geen magie — AI is een multipliër

Wanneer iemand roept:

“Laten we AI inzetten op onze bestaande data, dan worden we efficiënter!”

Dan vraag ik altijd: “Wat is je doel van de inzet, en hoe gaat onze data helpen om dat doel te halen?”

Want zonder herleidbaarheid, eigenaarschap en datakwaliteit wordt AI geen versneller. Dan wordt het een risicovergroter. Een black-box generator. Een audit-grapje.

AI vermenigvuldigt wat je hebt. Niet wat je zou willen hebben.


De belangrijkste eerste stap: begin bij uitlegbaarheid

Als een verzekeraar morgen verantwoord AI wil inzetten, is er één advies dat met stip bovenaan staat:

Leg eerst uit hoe je model uitlegbaar moet worden voordat je überhaupt gaat bouwen.

Want als je niet kunt uitleggen:

  • waarom een model iets voorspelt,
  • welke data de uitkomst beïnvloedt,
  • en hoe de logica werkt,

dan ben je onder de AI Act simpelweg af.


De eindboodschap: eerlijk en ongefilterd

AI kan enorm waardevol zijn. Maar niet als je datastructuur een kaartenhuis is.

Daarom eindig ik hiermee:

Als je niet on top of je data bent, loop je grote kans dat je AI-integraties niet het maximale resultaat halen.

1 gedachte over “AI Act in de praktijk: waarom verzekeraars hun datastructuur opnieuw moeten ontwerpen”

Plaats een reactie