Kunstmatige intelligentie (AI) is allang geen sciencefiction meer binnen de verzekeringswereld. Slimme algoritmes ondersteunen risicobeoordeling, voorspellen klantgedrag, en helpen schadeclaims razendsnel af te handelen. Wat ooit begon met rule-based decision trees is inmiddels uitgegroeid tot complexe neurale netwerken die zelfstandig leren van data. Maar met grote kracht komt grote verantwoordelijkheid – zeker als de wetgever zich ermee gaat bemoeien.
Met de komst van de Europese AI Act staan verzekeraars voor een nieuwe uitdaging: hoe benut je de voordelen van AI, terwijl je ook voldoet aan toenemende eisen op het gebied van transparantie, uitlegbaarheid en ethiek? In deze blog neem ik je mee in de impact van deze wetgeving op de IT-landschappen binnen de verzekeringsbranche – en waarom het niet voldoende is om alleen aan de businesskant na te denken over AI.

AI in de praktijk: efficiëntie met risico’s
Binnen de Nederlandse verzekeringsmarkt wordt AI inmiddels breed toegepast:
- Risicobeoordeling: op basis van historische data voorspellen welke klanten waarschijnlijk claims gaan indienen, en met welk schadebedrag.
- Claimverwerking: AI-gestuurde schadebots die kleine claims zelfstandig afhandelen.
- Fraudedetectie: systemen die opvallende patronen herkennen in ingediende claims.
- Klantinteractie: chatbots die vragen beantwoorden, producten aanbevelen en zelfs leads converteren.
Deze toepassingen zorgen voor efficiency en schaalbaarheid, maar brengen ook risico’s met zich mee. Want wat als een AI-model discrimineert op basis van postcode of opleidingsniveau? Wat als een klant een claimafwijzing krijgt, maar niemand precies kan uitleggen waarom?
Zolang AI slechts als ‘hulpmiddel’ werd gezien, kon de branche zich nog verschuilen achter “het model doet een suggestie, de mens beslist”. Maar die vlieger gaat niet langer op.
De AI Act: wetgeving die tot in de architectuur reikt
De AI Act, die vanaf 2026 volledig van kracht wordt, is de eerste Europese wet die een juridisch kader biedt voor AI-systemen. En die heeft flinke gevolgen voor verzekeraars. Kort samengevat:
- AI-systemen worden geclassificeerd naar risico: van ‘minimal risk’ tot ‘high risk’.
- Voor high-risk AI-systemen geldt een reeks verplichtingen, waaronder:
- Gedegen risicobeoordeling.
- Duidelijke documentatie.
- Herleidbaarheid en uitlegbaarheid van beslissingen.
- Transparantie richting klanten.
- Menselijk toezicht (human oversight).
Met name dit laatste punt – herleidbaarheid en uitlegbaarheid – raakt direct aan hoe we onze IT-landschappen inrichten. Want hoe leg je uit waarom een model doet wat het doet, als je de onderliggende logica zelf nauwelijks meer begrijpt?
Herleidbaarheid is geen optionele feature
Voor systeemarchitecten betekent dit een paradigmaverschuiving. Waar we vroeger vooral keken naar schaalbaarheid, integratie en performance, moeten we nu ook verantwoording kunnen afleggen over de werking van AI binnen het landschap.
Concreet betekent dit bijvoorbeeld:
- Traceerbare datastromen: van input tot output, inclusief transformaties.
- Modelbeheer: versiebeheer, audittrails en performance-logs.
- Beslislogica expliciteren: ook als het model een black box is.
- Transparantie richting gebruikers: begrijpelijke uitleg van AI-uitkomsten.
De eisen van de AI Act dwingen verzekeraars tot nadenken over datakwaliteit, governance en de inrichting van hun complete IT-ecosysteem. De architectuur moet uitlegbaarheid faciliteren – of in elk geval niet in de weg zitten.
Het ethisch kader: zelfregulering met tanden
Gelukkig hoeven verzekeraars het wiel niet zelf uit te vinden. Het Verbond van Verzekeraars publiceerde in juni 2025 een geactualiseerd Ethisch Kader voor AI en data-analyse. Daarin worden richtlijnen geboden voor onder andere:
- Eerlijke en non-discriminerende besluitvorming.
- Transparantie en uitlegbaarheid van modellen.
- Menselijk toezicht bij geautomatiseerde beslissingen.
- Duidelijke communicatie richting klanten.
Nieuw is dat dit kader niet alleen vrijblijvend is: onderdelen ervan zijn opgenomen in de bindende zelfregulering. Verzekeraars die lid zijn van het Verbond, committeren zich dus aan deze richtlijnen – en kunnen daar ook op worden aangesproken.
Wat betekent dit voor jouw IT-landschap?
De verantwoordelijkheid voor uitlegbaarheid en ethiek kan niet worden doorgeschoven naar compliance of een datateam. Het raakt direct aan architectuurkeuzes. Als systeemarchitect zie ik de volgende aandachtspunten:
1. Maak AI uitlegbaar in de keten
Bouw geen black box in een black box. Zorg voor transparantie in datastromen, modelbesluiten en context.
2. Koppel ethiek aan je ontwerpprincipes
Neem principes als uitlegbaarheid en herleidbaarheid op in je referentiearchitectuur.
3. Werk samen met compliance en business
Betrek IT vroegtijdig bij AI-initiatieven, en bespreek samen de governance.
4. Zorg voor governance op modellen
Gebruik CI/CD-achtige principes voor modelbeheer, inclusief monitoring en eigenaarschap.
Best practices in opkomst
Voorbeelden van praktijken die nu al werken:
- AI-wijzers of model-cards: documentatie per model met uitleg, doelen en beperkingen.
- Shadow-mode livegang: test een model eerst zonder effect op de uitkomst.
- Explainers in de klantomgeving: uitleg van factoren die meespeelden in beslissingen.
De toekomst: AI als volwaardig domein in architectuur
AI is niet langer experimenteel – het is kerntechnologie. Tijd om AI expliciet op te nemen in je architectuurvisie:
- Welke capabilities heb je nodig?
- Hoe borg je uitlegbaarheid?
- Wat als een toezichthouder om onderbouwing vraagt?
Architecten die nu investeren in een uitlegbaar, veerkrachtig en ethisch verantwoord AI-landschap, bouwen niet alleen compliant IT – maar ook vertrouwen bij klanten, medewerkers en maatschappij.
Tot slot: technologie met een moreel kompas
AI in verzekeren is niet langer een leuke innovatie aan de zijlijn. Het is een volwaardige technologie met impact op mensenlevens, rechten en vertrouwen. Als systeemarchitecten kunnen we daarin het verschil maken.
Want uiteindelijk draait het niet om wat een algoritme kan – maar of wij bereid zijn om te begrijpen wat het doet, en daar verantwoordelijkheid voor te nemen.