
In deze aflevering van Small Talks voor financiële dienstverleners leggen gedragspsycholoog Mischa Coster en gedragsmarketeer Paul de Heer de AI-Trust Bias uit.
Wat is het, waar en wanneer zie je het in de praktijk van de financiële dienstverlening en vooral: hoe je het kunt doorbreken en zelfs voorkomen, zodat je klanten beter helpt. Met een krachtig voorbeeld en praktische handvatten voor de adviespraktijk.
Intuïtie
Wat is de AI-Trust Bias? Als mensen zijn we geneigd om op onze intuïtie te vertrouwen. Dat helpt ons om snel beslissingen te nemen in een complexe wereld. Maar die intuïtie werkt niet altijd in ons voordeel, zeker niet als het gaat om kunstmatige intelligentie (AI). Want hoewel AI steeds vaker wordt ingezet bij financieel advies en informatievoorziening, blijkt dat veel mensen AI-systemen onterecht als foutloos en onpartijdig zien. We noemen dit fenomeen de AI-Trust Bias.
Psychologische effecten
Deze bias ontstaat door een combinatie van bekende psychologische effecten: de Authority Bias (we vertrouwen systemen omdat ze ‘van experts’ komen), de Automation Bias (we nemen aan dat automatisering betrouwbaarder is dan menselijke kennis), de Confirmation Bias (we zoeken bevestiging van wat we al geloven) en het ELIZA-effect (we schrijven menselijke eigenschappen toe aan niet-menselijke systemen). Samen zorgen deze ervoor dat we AI-output niet langer als advies, maar als waarheid ervaren.
Riskant
Dat kan riskant zijn. Want hoe indrukwekkend ook, AI maakt fouten. Het verzint feiten, kent geen context en kan bevooroordeeld zijn door trainingsdata. Toch blijven mensen het systeem vertrouwen, zelfs als het inconsistent in kwaliteit is. In wetenschappelijk onderzoek is herhaaldelijk aangetoond dat we AI vaak strenger beoordelen als het fouten maakt (Yang et al., 2021), maar paradoxaal genoeg ook sneller geneigd zijn om AI-advies klakkeloos op te volgen als het overeenkomt met onze verwachtingen en prompting (Confirmation Bias).
AI-Trust Bias herkennen én doorbreken
Als financieel adviseur werk je mogelijk met systemen die gebruik maken van AI. Van financiële agents tot geautomatiseerde klantprofielen of hypotheekaanbevelingen. De kans is groot dat jouw klant de systemen die ze zelfstandig gebruiken én de systemen die jij gebruikt als objectief, neutraal, inhoudelijk deskundig en dus betrouwbaar ziet. Maar dat is niet altijd terecht. Daarom is het belangrijk dat jij de AI-Trust Bias bij je klanten én bij jezelf herkent en je klant helpt om deze te doorbreken.
1. Onderzoek de bias
Stel: je klant komt met een advies of een conclusie die voortkomt uit een AI-tool (zoals een online pensioenplanner of roboadvies). In plaats van het direct te corrigeren of over te nemen, stel je open vragen: “Waarom denk je dat dit het juiste advies is?’ of “Wat maakt dat je dit zo betrouwbaar vindt?”. Door op deze manier het gesprek te openen, help je de klant reflecteren op de bron van de informatie én leer je zelf nog meer over de klant!
2. Zet in op transparantie en uitleg
Gebruik AI waar dat waarde toevoegt, maar wees helder over hoe het werkt. Leg bijvoorbeeld uit dat een tool werkt op basis van gemiddelden of patronen uit het verleden, maar geen rekening houdt met unieke omstandigheden zoals een scheiding of een specifieke fiscale situatie. Laat zien dat jouw menselijke beoordeling juist een aanvulling is op wat het systeem niet kan.
Praktisch samengevat:
- Identificeer en benoem de beperkingen van AI expliciet zowel voor jezelf als tijdens adviesgesprekken; • Gebruik alternatieve scenario’s of berekeningen en laat deze zien naast de AI-output;
- Gebruik framing: “De AI biedt een suggestie, maar jouw situatie vraagt om een bredere blik.”;
- Stimuleer actief kritisch denken bij jezelf en bij de klant;
- Pas het ELIZA-effect bewust toe: geef je eigen advies ook een menselijke en warme toon, zodat het niet ‘kouder’ voelt dan de AI-output die je erin verwerkt hebt.
Voorbeeld uit de adviespraktijk
Stel je een klant voor die met een eigen online hypotheekvergelijker is gekomen. Hij zegt: “Volgens deze tool kan ik het beste voor aanbieder X kiezen.” Als adviseur weet je dat deze aanbieder in zijn situatie – vanwege een lopende restschuld – helemaal niet de beste optie is. Toch blijft de klant vasthouden aan de suggestie van het systeem. In plaats van direct tegen te spreken, neem je de klant mee in het denkproces: je laat zien hoe de tool tot dit advies kwam (bijvoorbeeld op basis van een standaardprofiel) en vergelijkt het met een advies dat jij opstelt met uitleg waarom bepaalde factoren zwaarder wegen. Daarbij benoem je dat AI vaak goed werkt voor de ‘gemiddelde’ klant, maar dat maatwerk zoals bij hem andere inzichten oplevert. Je eindigt met: “De AI is een handig startpunt. Maar jouw situatie verdient een finish op maat.”
Ethisch aspect
Het doorbreken van AI-Trust Bias gaat niet over klanten wantrouwen aanpraten, maar over het herstellen van hun eigen beoordelingsvermogen. Je zet de mens weer centraal in het proces, met AI als hulpmiddel – niet als autoriteit.
Lees hier de InFinance HypoVak Beursspecial
Elke werkdag het belangrijkste financiële nieuws in uw mailbox? Meld u gratis aan voor InFinance Daily.







