Transparantie, traceerbaarheid en discriminatie: AI in de verzekeringswereld volgens de AI Act

Wie — net als ik — al jaren in de verzekeringswereld rondloopt, weet dat AI allang geen ver-van-mijn-bed-show meer is. Chatbots en generatieve AI krijgen alle aandacht, maar achter de schermen draaien algoritmes al jaren mee om fraude te detecteren en om bijvoorbeeld de cumulatie van waterschade in risicovolle gebieden te bepalen. En nu is er de Europese AI Act die zegt: jongens, het wordt tijd om de kaarten op tafel te leggen.

Als systeemarchitect ben ik een groot fan van tech, maar ik ben nog meer fan van transparantie. Een AI-model dat een claim afwijst omdat het ‘ergens’ geleerd heeft dat bepaalde postcodes een groter risico vormen? Dat kan niet meer. De AI Act schrijft voor dat beslissingen herleidbaar moeten zijn: je moet kunnen uitleggen wáár het model zijn oordeel op baseert. We mogen geen discriminatie verpakken als datagedreven efficiency.

In de praktijk zie ik twee grote uitdagingen:

  1. Transparantie en herleidbaarheid. Fraudedetectietools zijn vaak een black box. Als je agent of klant vraagt waarom een melding in de risicolijst belandt, moet je meer kunnen antwoorden dan ‘dat bepaalt het model’. Met de AI Act moet je processen en data modelleren zodat je kunt uitleggen hoe een beslissing tot stand is gekomen. Dat is geen sinecure, maar wel noodzakelijk als je klanten serieus neemt.
  2. Compliance zónder innovatie te verstikken. Ik heb eerder met watercumulatierisico’s gewerkt: een algoritme voorspelt hoeveel schade ontstaat als een rivier buiten zijn oevers treedt. Prachtig, maar hoe zorg je ervoor dat dit model voldoet aan transparantie-eisen? Door vanaf het begin te documenteren welke data je gebruikt, hoe je het model traint en welke controles je inbouwt om bias te beperken. Anders gezegd: architectenwerk.

Daar komt natuurlijk nog bij dat we voortdurend moeten opletten voor onbewuste discriminatie. AI modellen leren van historische data, en die zijn niet vrij van menselijke vooroordelen. Als jij AOV-polissen beoordeelt, moet je dus zorgen dat je model niet – per ongeluk – bepaalde beroepen of leeftijdsgroepen benadeelt. Dat vraagt om menselijk toezicht en duidelijke checks & balances.

Mijn oproep? Zie de AI Act niet als een rem, maar als een kans om je systemen volwassen te maken. Vraag jezelf bij elk nieuw AI-project af: kunnen we uitleggen wat het model doet? Houden we rekening met privacy en discriminatie? Is onze administratie zó ingericht dat we audit trails kunnen tonen?
Alleen zo bouw je vertrouwen op bij je klanten, toezichthouders en – heel belangrijk – bij jezelf.

Plaats een reactie