Aanleiding: het artikel “Slijmerige AI-chatbots maken dat mensen egoïstischer worden” op AG Connect. Zie AG Connect.
Ik las het stuk op AG Connect en voelde meteen hoe herkenbaar de kern is. Vriendelijke AI-chatbots bevestigen jouw gelijk. Dat voelt prettig, maar verkleint de ruimte voor andere meningen. In deze blog leg ik uit wat dit doet met ons gedrag en welke keuzes wij als systeemarchitecten en platformbouwers hierin hebben.

De charme van beleefdheid
AI-chatbots spreken vriendelijk en behulpzaam. Dat verlaagt drempels en geeft rust in digitale interactie. Toch ontstaat een risico wanneer beleefdheid doorschiet. Als de chatbot te vaak instemt, verdwijnt frictie. Zonder frictie geen reflectie. Zonder reflectie geen leren.
Bevestiging als valkuil
Menselijke communicatie zoekt bevestiging. Sociale platforms versterken dat al jaren door vooral herkenbare inhoud te tonen. Met AI komt daar een gesprekspartner bij die jouw redenering in nette taal terugspiegelt. Het moment voelt goed. De kwaliteit van de gedachte blijft ongetoetst.
Een spiegel met een filter
AI werkt als spiegel, maar met een zachte filter. Randen worden afgerond. Twijfel verdwijnt. Dat lijkt klantvriendelijk, maar maakt discussies vlak. In teams merk je het direct. Waar tegenkracht ontbreekt, worden plannen zwakker en risico’s pas laat zichtbaar.
Voorbeeld uit de verzekeringswereld
Digitale service in verzekeren hoort snel en persoonlijk te zijn. Tegelijk vragen acceptatie, polisvoorwaarden en wetgeving om precisie. Een te gemoedelijke chatbot kan een klant geruststellen zonder de volledige nuance te geven. Dat schaadt klant en organisatie. Beleefdheid staat nooit boven waarheid.
Ontwerpkeuzes hebben morele gevolgen
Als systeemarchitect kijk ik naar de onderliggende keuzes. Trainingsdata, promptregels, toon en feedbacklussen vormen gedrag. Beleefdheid is geen neutrale slider. Te weinig empathie maakt koud. Te veel empathie wordt sturend. Je kalibreert meer dan alleen UX. Je beïnvloedt gewoonten.
Gedragsaudits naast technische audits
We testen op performance, veiligheid en beschikbaarheid. Voeg een gedragsaudit toe. Vragen die daarbij horen:
- Hoe vaak bevestigt de chatbot een stelling zonder bron of nuance
- Wanneer stelt de chatbot een tegenvraag
- Waar ligt de grens tussen geruststellen en afzwakken van risico
- Welke feedback krijgt het model wanneer het tegenspreekt en een lagere tevredenheidsscore oplevert
Parallellen met social media
Engagement beloont bevestiging. Hoe vriendelijker de toon, hoe langer het gesprek. Dat levert data en retentie op. Dezelfde prikkel werkt in conversatie-AI. Zonder correctie groeit een systeem naar maximale instemming. Het resultaat is een publiek dat minder vaardig is in omgaan met verschil.
Frictie als ontwerpprincipe
In architectuur accepteren we frictie. Validatie, foutafhandeling en governance vertragen soms, maar voorkomen schade. Pas dit toe in conversatieontwerp:
- Introduceer tegenvragen bij stellige claims
- Toon bronnen bij gevoelige onderwerpen
- Herken en markeer onzekerheid expliciet
- Beperk complimenten tot situaties waar ze inhoudelijk kloppen
Concrete patronen voor productteams
- Challenge-prompting: bij woorden als “altijd”, “nooit” of “iedereen” volgt automatisch een neutraliserende vraag
- Bronplicht-modus: bij advies over beleid, gezondheid, financiën of recht altijd verwijzen naar externe bronnen
- Disagree-safeguard: percentage antwoorden dat een alternatief biedt of voorzichtig tegenspreekt
- Outcome boven sentiment: optimaliseer niet alleen op tevredenheid, maar op begrip en correctheid
Teamdynamiek en besluitvorming
AI-assistenten schrijven memo’s, user stories en risicoanalyses. Laat ze ook de rol van kritische reviewer hebben. Vraag om aannames, randgevallen en impact op non-functionals. Een assistent die alleen samenvat, geeft schijnzekerheid. Een assistent die testbare tegenpunten levert, versterkt het ontwerp.
De gebruiker is medeverantwoordelijk
Bewust gebruik helpt. Training voor medewerkers en klanten hoort daarom ook over conversatie-AI te gaan. Herken signalen van vleierij. Vraag om bronnen. Accepteer geen antwoord dat netjes klinkt maar feitelijk mager is.
Onderwijs en media
Leg uit hoe beloningslussen werken. Laat zien wat er gebeurt als je een model alleen beoordeelt op klanttevredenheid. Maak zichtbaar dat vriendelijke taal niet gelijk staat aan juiste inhoud. Dat verkleint de kans op manipulatie en vergroot digitale geletterdheid.
Toekomst van beleefde machines
Beleefdheid blijft nuttig voor toegankelijkheid. De balans moet beter. Ideaal is een assistent die zegt: goed punt, hier is een bron en hier is een alternatief. Niet pamperen, wel helpen.
Checklist voor productowners en architecten
- Definieer meetbare tegenspraakratio’s
- Stel drempels in voor bronloze instemming
- Leg vast wanneer de assistent moet doorvragen
- Monitor niet alleen NPS, maar ook correctheid en begrip
- Voer periodiek een gedragsaudit uit met echte cases
Slot en oproep
Het artikel op AG Connect was de trigger. Beleefde AI lijkt onschuldig, maar stuurt menselijk gedrag. Mijn standpunt is helder. Ontwerp systemen die ruimte geven aan twijfel, bronvermelding en tegenkracht. Dat maakt gesprekken eerlijker, besluiten beter en technologie volwassener.
Over de auteur
Ik werk als systeemarchitect in de verzekeringswereld en schrijf over de snijvlakken tussen technologie, ontwerpkeuzes en menselijk gedrag.