AI bij verzekeraars: hoe je innovatief blijft zonder je auditteam te laten hyperventileren

AI staat bij verzekeraars hoog op de agenda. Iedereen wil ermee aan de slag: efficiënter werken, betere voorspellingen, slimmer klantcontact, snellere acceptatie. Maar terwijl de AI-proeftuintjes links en rechts uit de grond schieten, zie je één groep die steeds nerveuzer wordt: de auditteams.

En eerlijk is eerlijk: ze hebben een punt.

De grootste bron van auditstress? Teams beginnen direct met bouwen zonder ook maar enigszins rekening te houden met de AI Act.

De bedoelingen zijn goed — snelheid, innovatie, kansen benutten — maar de praktijk is vaak pijnlijk voorspelbaar: achteraf blijken data, risico’s, toestemming, uitlegbaarheid en traceerbaarheid allemaal niet op orde. En dan moeten auditteams maanden later reconstrueren wat er precies gebeurd is. Tegen die tijd heeft het model al tien iteraties achter de rug en herkent niemand de oorspronkelijke uitgangspunten nog.

Het typische scenario dat auditteams slapeloze nachten bezorgt

Het ziet er ongeveer zo uit:

  • De bron van de data is onduidelijk.
  • Niemand weet hoe die data geïnterpreteerd moet worden.
  • Toestemming voor datagebruik is niet geregeld of nooit geverifieerd.
  • De beslislogica van het model is niet uitlegbaar — zelfs niet door de ontwikkelaars.
  • Wanneer audit maanden later komt kijken, blijken de uitgangspunten allang vervangen door nieuwe experimenten.

Dat is geen innovatie. Dat is technische schuld met een AI-sausje.


Waarom gaat dit zo vaak mis? De drie echte oorzaken

1. Gebrek aan centrale data governance

Zonder duidelijke regels over wat data betekent, wie ervoor verantwoordelijk is en hoe het gebruikt mag worden, is elk AI-experiment een risico. Je kunt geen verantwoord AI-model bouwen bovenop een ongecontroleerd datalandschap.

2. AI-enthousiasme wint het van structuur

AI is spannend. Nieuw. Interessant. En daardoor is de reflex: “Gewoon beginnen, we zien later wel.” Maar “later” komt altijd — en dan heet het audit. Of incident. Of herstelplan.

3. Tijdsdruk en onrealistische verwachtingen vanuit de business

Business wil impact. Liefst gisteren. Maar als je AI bouwt onder extreme tijdsdruk, worden guardrails gezien als obstakels. Totdat audit binnenstapt en dezelfde guardrails ineens levensreddend blijken.


Hoe kantel je het gesprek? De rol van een systeemarchitect

Je kunt AI niet afremmen. Je moet het richting geven. Dat doe je niet door te vertragen, maar door te structureren.

In gesprekken — met teams, product owners of businessstakeholders — werkt één aanpak het beste: eerlijk, direct en met duidelijke guardrails.

Niet in de vorm van dikke handboeken, maar via:

  • duidelijke Definition of Ready-eisen,
  • harde Definition of Done-criteria,
  • NFR’s (non-functional requirements) die AI-werk structureel veiliger maken.

Die guardrails helpen teams vooruit in plaats van ze tegen te houden.


Wat frustreert teams zelf het meest?

1. Onduidelijke guardrails

Teams willen best compliant werken — ze weten alleen vaak niet waar de grens ligt. Niet omdat ze koppig zijn, maar omdat de regels diffuus zijn.

2. Verschillende meningen tussen experts

De ene auditor kijkt naar risico’s, de andere naar documentatie, een derde naar governance. Soms wil men “het beste jongetje van de klas zijn”, soms is men juist pragmatisch. Teams worden hier simpelweg gek van.

3. Angst voor een rem op innovatie

Niemand wil terug naar change committees uit 2006. Maar onduidelijkheid voelt als vertraging, zelfs wanneer het bedoeld is als bescherming.


De drie maatregelen die wél werken (en direct impact hebben)

1. Stel duidelijke AI-architectuurprincipes op

Geen wollige zinnen, maar harde kaders zoals:

  • “Geen model zonder uitlegbaarheid.”
  • “Geen data zonder eigenaar.”
  • “Geen deployment zonder lineage.”

2. Zorg voor structurele samenwerking tussen audit, IT en data science

Geen drie eilanden — één gezamenlijke verantwoordelijkheid.

Audit leert eerder in het proces zien wat er mis dreigt te gaan. Teams leren hoe ze compliant kunnen innoveren zonder dat het voelt als bureaucratie. De business leert begrijpen dat governance een versneller is, geen rem.

Dit voorkomt 90% van de verrassingen.

3. Automatiseer lineage en explainability waar mogelijk

Tooling is geen luxe — het is een voorwaarde:

  • automatische traceerbaarheid,
  • automatische logging,
  • automatische audit trails,
  • automatische explainability reports.

Hoe meer je automatiseert, hoe minder discussie en onzekerheid achteraf.


Reputatieschade: het risico waar verzekeraars écht wakker van zouden moeten liggen

AI-incidenten binnen verzekeraars gaan zelden over techniek. Ze gaan over vertrouwen. En als er iets is waar verzekeraars afhankelijk van zijn, dan is het dat.

Het grootste risico van niet-uitlegbare AI-beslissingen is namelijk niet dat auditors gaan puffen en zuchten. Het grootste risico is reputatieschade. En die is veel harder, duurder en langduriger dan welke auditbevinding dan ook.

Het scenario dat elke verzekeraar vreest

Stel: een AI-model ondersteunt het acceptatiebeleid. Het model blijkt aanvragen af te wijzen van mensen die in een bepaalde postcode wonen. Niemand weet waarom, want:

  • de herkomst van de data is onduidelijk,
  • niemand de transformaties kan reconstrueren,
  • de modeluitleg generiek en niet bruikbaar is,
  • niemand kan aanwijzen waarom postcode invloed heeft,
  • ontwikkelaars alweer twee versies verder zijn.

Dan belt een journalist. Of een jurist. Of beide.

Voor je het weet staat er een artikel online: “Verzekeraar wijst klanten af op basis van postcode — algoritme discrimineert.”

Op dat moment doet het er niet meer toe dat:

  • het model “maar een adviesrol had”,
  • het besluit door een medewerker is bevestigd,
  • er nooit kwade opzet was.

Perceptie wint het altijd van nuance.

Waarom juist verzekeraars extreem kwetsbaar zijn

Verzekeren draait om:

  • vertrouwen,
  • voorspelbaarheid,
  • zorgvuldigheid,
  • gelijke behandeling.

Een AI-incident raakt direct aan al deze punten. Bovendien kunnen klanten met één klik overstappen. Eén reputatieklap kan jarenlang doorwerken.

De pijnlijke realiteit

Een verzekeraar kan een fout maken. Maar een verzekeraar mag niet onnavolgbaar zijn.

Een menselijke beoordelingsfout is vervelend. Een niet-uitlegbare AI-fout voelt systematisch — en systematische fouten worden gezien als beleid.

Het punt dat verzekeraars écht moeten begrijpen

AI zonder uitlegbaarheid lijkt efficiënt. Tot het moment dat het de krant haalt.

Dan blijkt efficiëntie iets dat alleen vóór de schade gold.


Innovatie met controle: de enige manier om AI volwassen te maken

Innovatie en compliance lijken tegenpolen, maar dat is een misverstand. AI wordt pas echt krachtig als het:

  • uitlegbaar is,
  • controleerbaar is,
  • herleidbaar is,
  • verantwoord te beheren is.

AI heeft structuur nodig om te kunnen vliegen.


Slotboodschap

De enige manier om innovatief te blijven zonder auditpaniek is AI bouwen alsof morgen de audit binnenstapt — want dat doen ze ook.

1 gedachte over “AI bij verzekeraars: hoe je innovatief blijft zonder je auditteam te laten hyperventileren”

Plaats een reactie