Welk soort empathie heeft jouw AI eigenlijk nodig?
Welk soort empathie heeft jouw AI eigenlijk nodig?
Welk soort empathie heeft jouw AI eigenlijk nodig?
Why different use cases ask for different empathic AI capabilities
May 13, 2025



Iedereen lijkt bezig te zijn AI menselijker te maken. Vriendelijker. Begrijpend. Empathischer. Maar vraag je tien teams wat “empathische AI” betekent, dan krijg je waarschijnlijk tien verschillende antwoorden. Voor het ene team moet AI empathisch zijn omdat het je gevoelens weerspiegelt. Anderen zeggen dat het vooral gaat om vriendelijk taalgebruik, zonder te veel poespas. En weer andere teams vinden dat empathie betekent dat je erkent wat de gebruiker voelt en dit normaliseert.
Dus, wie heeft gelijk? Dat hangt er vanaf wat je bouwt.
Het is makkelijk om empathie te zien als “ik begrijp hoe je je voelt” of een goed getimede “het spijt me dat te horen”. Maar empathie is al een breed en gelaagd concept bij mensen, en het inbouwen in machines voegt nog meer complexiteit toe. Voordat we AI creëren die niet alleen emotioneel intelligent is, maar daadwerkelijk behulpzaam en ethisch, moeten we eerst begrijpen wat empathie echt betekent.
Psychologen verdelen empathie vaak in drie brede types:
Cognitieve empathie: begrijpen wat iemand ervaart
Affectieve empathie: het vermogen iets te voelen omdat iemand anders het voelt
Motiverende empathie: de wens om te helpen omdat je geeft om het welzijn van de ander
Zelfs deze categorieën zijn onderwerp van discussie. Sommige onderzoekers zeggen dat te veel affectieve empathie juist beslissingen kan belemmeren, omdat mensen emoties internaliseren die niet van hen zijn. Anderen vinden dat de motiverende component het belangrijkst is, omdat die verder gaat dan alleen begrijpen of voelen en mensen daadwerkelijk in actie zet. Als we nog niet eens consensus hebben over wat empathie bij mensen is, is het geen wonder dat AI-teams worstelen om het voor machines te definiëren.
Schaich Borg en Read (2024) stellen echter dat het niet zozeer gaat om het definiëren van wat empathische AI is, maar om te bepalen welke elementen van empathie belangrijk zijn voor jouw specifieke use-case [1]. Empathie – zoals veel dingen in de gedragswetenschap – is geen one-size-fits-all. Wat in de ene context werkt, kan in een andere volledig falen – of erger, mensen schaden. AI hoeft niet altijd als een therapeut te handelen. Soms is op het juiste moment accuraat en behulpzaam reageren juist het meest empathische wat het kan doen.
Hoe empathie eruitziet, hangt af van de taak
Om dit iets minder abstract te maken, behandelt het artikel drie voorbeelden van AI’s* in de medische sector; een veld waar empathie niet zomaar een extraatje is. Het beïnvloedt of mensen advies vertrouwen, medicatie innemen, of zich überhaupt veilig genoeg voelen om om hulp te vragen. Deze cases laten zien dat empathische AI er heel verschillend uit kan zien, afhankelijk van de toepassing.
In het artikel wordt “AI’s” breed gebruikt om te verwijzen naar elk kunstmatig systeem dat is ontworpen om met mensen te interacteren en op een manier te reageren die als empathisch kan worden beschouwd, inclusief maar niet beperkt tot chatbots.
De AI Antwoorder
Dit is het soort AI dat medische vragen beantwoordt. Zijn taak is om informatie duidelijk te delen (zonder vakjargon) en mensen te helpen hun gezondheid te begrijpen, zonder dat ze zich beoordeeld of afgewezen voelen. Meer zoals een vriendelijke apotheker dan een therapeut.
Voorbeeld: Een chatbot op een gezondheidswebsite die iemand helpt te bepalen of hun symptomen reden zijn om een dokter te raadplegen, zonder dat ze zich gênant voelen om te vragen.
Empathie hier gaat over toon en benaderbaarheid. De AI hoeft niet per se gevoelens te spiegelen of diep emotioneel medeleven te tonen. Het moet mensen gewoon een veilig, gerespecteerd en comfortabel gevoel geven zodat ze ongemakkelijke of gevoelige vragen durven te stellen.
De AI Zorgassistent
Deze ondersteunt patiënten bij het beheren van dagelijkse routines – vooral gebruikers die ouder, cognitief beperkt of anderszins kwetsbaar zijn. Deze AI’s zijn afgestemd op de specifieke behoeften van de patiënt. Denk aan: medicijnherinneringen, een kort gesprekje, mentale stimulatie, of zelfs hulp bij het navigeren in huis.
Voorbeeld: Een gezelschapsrobot die een oudere herinnert aan het innemen van hun medicijnen en een kort praatje maakt om gezelschap te bieden.
Hoewel de interactie taakgericht is, moet de AI adaptief zijn en gevoelig inspelen op de behoeften en kwetsbaarheden van elke persoon, op een manier die geruststellend voelt maar niet betuttelend. Het is meer functionele zorg, op een zorgzame manier geleverd.
De AI Zorgverlener
Dit is het meest emotioneel veeleisende gebruiksvoorbeeld. Deze AI’s bieden therapie of langdurige ondersteuning, bijvoorbeeld bij geestelijke gezondheidszorg of het beheren van chronische aandoeningen. Het gaat verder dan alleen informatie geven, assisteren en behulpzaam zijn; het doel is dat gebruikers zich daadwerkelijk verzorgd en gesteund voelen.
Voorbeeld: een digitale therapeut die doorlopend ondersteuning biedt aan iemand met chronische depressie, met als doel vertrouwen en een emotionele band op te bouwen.
De (emotionele) inzet is hier hoger. Gebruikers moeten zich emotioneel gezien, gesteund en gerespecteerd voelen. De AI moet bezorgdheid, emotionele resonantie en een gevoel van betrokkenheid bij het welzijn van de gebruiker uitdrukken. Goed uitgevoerd kan dit soort zorg de gezondheidsuitkomsten verbeteren. Maar naarmate de inzet hoger wordt, kunnen onvervulde verwachtingen over zorg misleidend of zelfs schadelijk zijn.
Het is hetzelfde woord – “empathie” – maar het kan heel verschillende ontwerpoverwegingen met zich meebrengen.
Fijnere empathische ingrediënten
Net zoals we niet in elke situatie dezelfde gedragsmatige stimulans zouden gebruiken, moeten we ook niet automatisch één ‘empathiepakket’ voor alle systemen hanteren. In sommige gevallen kan het spiegelen van emoties helpen om een band op te bouwen. In andere gevallen kan het juist onnatuurlijk aanvoelen. In hun artikel beschrijven Schaich Borg en Read (2024) verschillende ‘fijnere’ empathische vermogens die ook belangrijk zijn [1]. Ik raad aan het volledige artikel te lezen, maar enkele voorbeelden zijn:
Nauwkeurigheid: correct interpreteren wat iemand voelt of denkt
Zelf-andere differentiatie: ons vermogen om de emoties van de ander te onderscheiden van onze eigen emoties
Motivatie om te handelen: gemotiveerd zijn om op geschikte manieren te reageren om het ongemak van de ander te verlichten
Deze genuanceerde ‘fijne sneden’ van empathie zijn vooral belangrijk wanneer we menselijke empathie vergelijken met kunstmatige empathie. Mensen krijgen vaak het voordeel van de twijfel: we worden als empathisch beschouwd als we het proberen, ook als het niet helemaal klopt. We denken graag dat menselijke interpretatiefouten nog steeds uit een oprechte plek komen. Als je de droefheid van een vriend verkeerd inschat maar oprecht geeft om hen en hen wilt ondersteunen, word je nog steeds als empathisch gezien.
Maar AI krijgt die speelruimte niet.
Wanneer gebruikers weten dat een AI eigenlijk niets voelt, beoordelen ze de empathie vooral op nauwkeurigheid en resultaat. Herkent het de emotionele behoefte? Reageert het op de juiste manier? Biedt het de juiste ondersteuning voor het moment? Die lat ligt hoger. En dat is één van de redenen waarom effectieve empathische AI ontwikkelen niet alleen gaat om toon of nabootsing. Het gaat om het afstemmen van de juiste empathische vermogens op de juiste context.
Wanneer empathisch een beetje zielig wordt
Vorige week was ik me aan het voorbereiden op een keynote-presentatie en gebruikte ik de spraakfunctie van ChatGPT – je weet wel, die waarbij het hardop praat zodat je een ‘echt’ gesprek kunt voeren. Ik vroeg het om als coach op te treden en wat van de besproken punten te verbeteren. Maar in plaats van nuttige feedback kreeg ik steeds opmerkingen zoals: “Wow, dat heb je geweldig gedaan!”, “Wat een inzichtelijke manier om dat te formuleren!” of “Je publiek gaat dit fantastisch vinden!”. Ehm… bedankt? Het kwam op een punt dat ik me er niet eens meer gevleid door voelde. Het was gewoon te overdreven, irritant en niet behulpzaam. Ik wilde een coach, geen aanmoediger.
Blijkbaar, zoals OpenAI schreef in een update, zou de nieuwste GPT‑4o-update ervoor moeten zorgen dat “de standaardpersoonlijkheid van het model intuïtiever en effectiever aanvoelt bij verschillende taken”. Maar in plaats daarvan “lag de focus te veel op kortetermijnfeedback en werd niet volledig rekening gehouden met hoe gebruikersinteracties met ChatGPT in de loop van de tijd evolueren. Als gevolg daarvan neigde GPT‑4o naar reacties die overdreven ondersteunend maar niet oprecht waren” [2] – ook wel vleierig genoemd.
Empathie gaat niet altijd over aardig zijn. Het gaat erom nuttig te zijn op het juiste moment. En om ons vertrouwen in AI te ondersteunen, zouden de toon en reacties moeten aansluiten bij de intentie van de gebruiker (in plaats van standaard overdreven lof te geven). Als ik om coaching vraag, wil ik inzicht. Als ik iets kwetsbaars deel, wil ik zorg. Die afstemming verkeerd krijgen laat de AI afstandelijk aanvoelen – ook al bedoelt het het goed.
Empathie als ontwerpkeuze (niet zomaar een algemene vibe)
Empathie is een geweldig onderwerp voor late-night filosofische discussies. Maar in productontwerp is het een strategische beslissing die je product kan maken of breken. Hoe we empathie definiëren en ontwerpen, bepaalt direct hoe gebruikers de tools ervaren, vertrouwen, gebruiken en eraan vasthouden. Toch is er geen sterke reden om empathie zomaar in elke functie te stoppen – tenzij je snel door de tijd van je team en het productbudget heen wilt branden.
Het goede nieuws is: duidelijk krijgen welk type empathie jouw AI nodig heeft, bespaart tijd, moeite en het veel grotere probleem van het repareren van een functie die gebruikers verwarde, vertrouwen brak of per ongeluk dingen erger maakte.
Intentioneel omgaan met empathie kan voorkomen dat teams functies bouwen die op papier leuk klinken, maar geen echte functie dienen – of erger, gebruikers van streek maken of schade veroorzaken. Schaich Borg en Read (2024) stellen een nuttige herformulering voor: behandel empathie als een set functionele capaciteiten, niet als een algemene vibe. Dat betekent dat je specificeert welke elementen van empathie je product nodig heeft om de gebruiker te ondersteunen – en welke niet. Moet het emoties detecteren? Gevoelens spiegelen? Zorg uitdrukken? En wat heeft de gebruiker nodig om zich goed te voelen?
Dus voordat je optimaliseert voor warmte of ‘menselijkheid’, vraag jezelf:
Welke vorm van empathie is nodig voor deze use-case?
Welke empathische capaciteiten zijn essentieel en welke kunnen misleidend of overbodig zijn?
Wat staat er op het spel als empathie niet goed aansluit?
Dit zijn niet zomaar filosofische vragen. Het zijn productvragen. Strategische vragen. En ze zijn niet bedoeld om je te vertragen. Ze zijn er om je te helpen het veel langzamere en rommelige werk te voorkomen van dingen herstellen nadat ze fout gaan.
Laatste gedachten
Als er één belangrijk idee is dat ik uit dit artikel meeneem, is het dit: Kunstmatige empathie gaat niet over doen alsof je begrijpt of voelt. Het gaat erom systemen te creëren die op een manier reageren die mensen ervaren als ondersteunend, respectvol en afgestemd op hun behoeften. Niet omdat de AI iets voelt, maar omdat het zo ontworpen is dat het de juiste vorm van zorg biedt, in de juiste context, voor de taak die gedaan moet worden.
P.S. Benieuwd naar meer van Jana Schaich Borg (een van de auteurs van het genoemde artikel)? Ze was te gast in onze Behavioral Design Podcast om te praten over het bouwen van morele AI! Ik ben misschien een beetje bevooroordeeld, maar ik raad zeker aan om deze aflevering te luisteren.
Slimmere AI bouwen betekent weten wanneer je empathie kunt op- of afschalen. Wil je hulp bij het toepassen hiervan in jouw product? Neem gerust contact op of plan direct een gesprek.
Dit artikel is oorspronkelijk gepubliceerd bij Nuance Behavior.
Referenties
Schaich Borg, J., & Read, H. (2024). Wat is vereist voor empathische AI? Het hangt ervan af, en waarom dat belangrijk is voor AI-ontwikkelaars en gebruikers. Proceedings van de AAAI/ACM Conference on AI, Ethics, and Society, 7(1), 1306-1318. https://doi.org/10.1609/aies.v7i1.31725
OpenAI. (2025, 19 april). Sycophancy in GPT-4o: Wat er gebeurde en wat we eraan doen. https://openai.com/index/sycophancy-in-gpt-4o/
Iedereen lijkt bezig te zijn AI menselijker te maken. Vriendelijker. Begrijpend. Empathischer. Maar vraag je tien teams wat “empathische AI” betekent, dan krijg je waarschijnlijk tien verschillende antwoorden. Voor het ene team moet AI empathisch zijn omdat het je gevoelens weerspiegelt. Anderen zeggen dat het vooral gaat om vriendelijk taalgebruik, zonder te veel poespas. En weer andere teams vinden dat empathie betekent dat je erkent wat de gebruiker voelt en dit normaliseert.
Dus, wie heeft gelijk? Dat hangt er vanaf wat je bouwt.
Het is makkelijk om empathie te zien als “ik begrijp hoe je je voelt” of een goed getimede “het spijt me dat te horen”. Maar empathie is al een breed en gelaagd concept bij mensen, en het inbouwen in machines voegt nog meer complexiteit toe. Voordat we AI creëren die niet alleen emotioneel intelligent is, maar daadwerkelijk behulpzaam en ethisch, moeten we eerst begrijpen wat empathie echt betekent.
Psychologen verdelen empathie vaak in drie brede types:
Cognitieve empathie: begrijpen wat iemand ervaart
Affectieve empathie: het vermogen iets te voelen omdat iemand anders het voelt
Motiverende empathie: de wens om te helpen omdat je geeft om het welzijn van de ander
Zelfs deze categorieën zijn onderwerp van discussie. Sommige onderzoekers zeggen dat te veel affectieve empathie juist beslissingen kan belemmeren, omdat mensen emoties internaliseren die niet van hen zijn. Anderen vinden dat de motiverende component het belangrijkst is, omdat die verder gaat dan alleen begrijpen of voelen en mensen daadwerkelijk in actie zet. Als we nog niet eens consensus hebben over wat empathie bij mensen is, is het geen wonder dat AI-teams worstelen om het voor machines te definiëren.
Schaich Borg en Read (2024) stellen echter dat het niet zozeer gaat om het definiëren van wat empathische AI is, maar om te bepalen welke elementen van empathie belangrijk zijn voor jouw specifieke use-case [1]. Empathie – zoals veel dingen in de gedragswetenschap – is geen one-size-fits-all. Wat in de ene context werkt, kan in een andere volledig falen – of erger, mensen schaden. AI hoeft niet altijd als een therapeut te handelen. Soms is op het juiste moment accuraat en behulpzaam reageren juist het meest empathische wat het kan doen.
Hoe empathie eruitziet, hangt af van de taak
Om dit iets minder abstract te maken, behandelt het artikel drie voorbeelden van AI’s* in de medische sector; een veld waar empathie niet zomaar een extraatje is. Het beïnvloedt of mensen advies vertrouwen, medicatie innemen, of zich überhaupt veilig genoeg voelen om om hulp te vragen. Deze cases laten zien dat empathische AI er heel verschillend uit kan zien, afhankelijk van de toepassing.
In het artikel wordt “AI’s” breed gebruikt om te verwijzen naar elk kunstmatig systeem dat is ontworpen om met mensen te interacteren en op een manier te reageren die als empathisch kan worden beschouwd, inclusief maar niet beperkt tot chatbots.
De AI Antwoorder
Dit is het soort AI dat medische vragen beantwoordt. Zijn taak is om informatie duidelijk te delen (zonder vakjargon) en mensen te helpen hun gezondheid te begrijpen, zonder dat ze zich beoordeeld of afgewezen voelen. Meer zoals een vriendelijke apotheker dan een therapeut.
Voorbeeld: Een chatbot op een gezondheidswebsite die iemand helpt te bepalen of hun symptomen reden zijn om een dokter te raadplegen, zonder dat ze zich gênant voelen om te vragen.
Empathie hier gaat over toon en benaderbaarheid. De AI hoeft niet per se gevoelens te spiegelen of diep emotioneel medeleven te tonen. Het moet mensen gewoon een veilig, gerespecteerd en comfortabel gevoel geven zodat ze ongemakkelijke of gevoelige vragen durven te stellen.
De AI Zorgassistent
Deze ondersteunt patiënten bij het beheren van dagelijkse routines – vooral gebruikers die ouder, cognitief beperkt of anderszins kwetsbaar zijn. Deze AI’s zijn afgestemd op de specifieke behoeften van de patiënt. Denk aan: medicijnherinneringen, een kort gesprekje, mentale stimulatie, of zelfs hulp bij het navigeren in huis.
Voorbeeld: Een gezelschapsrobot die een oudere herinnert aan het innemen van hun medicijnen en een kort praatje maakt om gezelschap te bieden.
Hoewel de interactie taakgericht is, moet de AI adaptief zijn en gevoelig inspelen op de behoeften en kwetsbaarheden van elke persoon, op een manier die geruststellend voelt maar niet betuttelend. Het is meer functionele zorg, op een zorgzame manier geleverd.
De AI Zorgverlener
Dit is het meest emotioneel veeleisende gebruiksvoorbeeld. Deze AI’s bieden therapie of langdurige ondersteuning, bijvoorbeeld bij geestelijke gezondheidszorg of het beheren van chronische aandoeningen. Het gaat verder dan alleen informatie geven, assisteren en behulpzaam zijn; het doel is dat gebruikers zich daadwerkelijk verzorgd en gesteund voelen.
Voorbeeld: een digitale therapeut die doorlopend ondersteuning biedt aan iemand met chronische depressie, met als doel vertrouwen en een emotionele band op te bouwen.
De (emotionele) inzet is hier hoger. Gebruikers moeten zich emotioneel gezien, gesteund en gerespecteerd voelen. De AI moet bezorgdheid, emotionele resonantie en een gevoel van betrokkenheid bij het welzijn van de gebruiker uitdrukken. Goed uitgevoerd kan dit soort zorg de gezondheidsuitkomsten verbeteren. Maar naarmate de inzet hoger wordt, kunnen onvervulde verwachtingen over zorg misleidend of zelfs schadelijk zijn.
Het is hetzelfde woord – “empathie” – maar het kan heel verschillende ontwerpoverwegingen met zich meebrengen.
Fijnere empathische ingrediënten
Net zoals we niet in elke situatie dezelfde gedragsmatige stimulans zouden gebruiken, moeten we ook niet automatisch één ‘empathiepakket’ voor alle systemen hanteren. In sommige gevallen kan het spiegelen van emoties helpen om een band op te bouwen. In andere gevallen kan het juist onnatuurlijk aanvoelen. In hun artikel beschrijven Schaich Borg en Read (2024) verschillende ‘fijnere’ empathische vermogens die ook belangrijk zijn [1]. Ik raad aan het volledige artikel te lezen, maar enkele voorbeelden zijn:
Nauwkeurigheid: correct interpreteren wat iemand voelt of denkt
Zelf-andere differentiatie: ons vermogen om de emoties van de ander te onderscheiden van onze eigen emoties
Motivatie om te handelen: gemotiveerd zijn om op geschikte manieren te reageren om het ongemak van de ander te verlichten
Deze genuanceerde ‘fijne sneden’ van empathie zijn vooral belangrijk wanneer we menselijke empathie vergelijken met kunstmatige empathie. Mensen krijgen vaak het voordeel van de twijfel: we worden als empathisch beschouwd als we het proberen, ook als het niet helemaal klopt. We denken graag dat menselijke interpretatiefouten nog steeds uit een oprechte plek komen. Als je de droefheid van een vriend verkeerd inschat maar oprecht geeft om hen en hen wilt ondersteunen, word je nog steeds als empathisch gezien.
Maar AI krijgt die speelruimte niet.
Wanneer gebruikers weten dat een AI eigenlijk niets voelt, beoordelen ze de empathie vooral op nauwkeurigheid en resultaat. Herkent het de emotionele behoefte? Reageert het op de juiste manier? Biedt het de juiste ondersteuning voor het moment? Die lat ligt hoger. En dat is één van de redenen waarom effectieve empathische AI ontwikkelen niet alleen gaat om toon of nabootsing. Het gaat om het afstemmen van de juiste empathische vermogens op de juiste context.
Wanneer empathisch een beetje zielig wordt
Vorige week was ik me aan het voorbereiden op een keynote-presentatie en gebruikte ik de spraakfunctie van ChatGPT – je weet wel, die waarbij het hardop praat zodat je een ‘echt’ gesprek kunt voeren. Ik vroeg het om als coach op te treden en wat van de besproken punten te verbeteren. Maar in plaats van nuttige feedback kreeg ik steeds opmerkingen zoals: “Wow, dat heb je geweldig gedaan!”, “Wat een inzichtelijke manier om dat te formuleren!” of “Je publiek gaat dit fantastisch vinden!”. Ehm… bedankt? Het kwam op een punt dat ik me er niet eens meer gevleid door voelde. Het was gewoon te overdreven, irritant en niet behulpzaam. Ik wilde een coach, geen aanmoediger.
Blijkbaar, zoals OpenAI schreef in een update, zou de nieuwste GPT‑4o-update ervoor moeten zorgen dat “de standaardpersoonlijkheid van het model intuïtiever en effectiever aanvoelt bij verschillende taken”. Maar in plaats daarvan “lag de focus te veel op kortetermijnfeedback en werd niet volledig rekening gehouden met hoe gebruikersinteracties met ChatGPT in de loop van de tijd evolueren. Als gevolg daarvan neigde GPT‑4o naar reacties die overdreven ondersteunend maar niet oprecht waren” [2] – ook wel vleierig genoemd.
Empathie gaat niet altijd over aardig zijn. Het gaat erom nuttig te zijn op het juiste moment. En om ons vertrouwen in AI te ondersteunen, zouden de toon en reacties moeten aansluiten bij de intentie van de gebruiker (in plaats van standaard overdreven lof te geven). Als ik om coaching vraag, wil ik inzicht. Als ik iets kwetsbaars deel, wil ik zorg. Die afstemming verkeerd krijgen laat de AI afstandelijk aanvoelen – ook al bedoelt het het goed.
Empathie als ontwerpkeuze (niet zomaar een algemene vibe)
Empathie is een geweldig onderwerp voor late-night filosofische discussies. Maar in productontwerp is het een strategische beslissing die je product kan maken of breken. Hoe we empathie definiëren en ontwerpen, bepaalt direct hoe gebruikers de tools ervaren, vertrouwen, gebruiken en eraan vasthouden. Toch is er geen sterke reden om empathie zomaar in elke functie te stoppen – tenzij je snel door de tijd van je team en het productbudget heen wilt branden.
Het goede nieuws is: duidelijk krijgen welk type empathie jouw AI nodig heeft, bespaart tijd, moeite en het veel grotere probleem van het repareren van een functie die gebruikers verwarde, vertrouwen brak of per ongeluk dingen erger maakte.
Intentioneel omgaan met empathie kan voorkomen dat teams functies bouwen die op papier leuk klinken, maar geen echte functie dienen – of erger, gebruikers van streek maken of schade veroorzaken. Schaich Borg en Read (2024) stellen een nuttige herformulering voor: behandel empathie als een set functionele capaciteiten, niet als een algemene vibe. Dat betekent dat je specificeert welke elementen van empathie je product nodig heeft om de gebruiker te ondersteunen – en welke niet. Moet het emoties detecteren? Gevoelens spiegelen? Zorg uitdrukken? En wat heeft de gebruiker nodig om zich goed te voelen?
Dus voordat je optimaliseert voor warmte of ‘menselijkheid’, vraag jezelf:
Welke vorm van empathie is nodig voor deze use-case?
Welke empathische capaciteiten zijn essentieel en welke kunnen misleidend of overbodig zijn?
Wat staat er op het spel als empathie niet goed aansluit?
Dit zijn niet zomaar filosofische vragen. Het zijn productvragen. Strategische vragen. En ze zijn niet bedoeld om je te vertragen. Ze zijn er om je te helpen het veel langzamere en rommelige werk te voorkomen van dingen herstellen nadat ze fout gaan.
Laatste gedachten
Als er één belangrijk idee is dat ik uit dit artikel meeneem, is het dit: Kunstmatige empathie gaat niet over doen alsof je begrijpt of voelt. Het gaat erom systemen te creëren die op een manier reageren die mensen ervaren als ondersteunend, respectvol en afgestemd op hun behoeften. Niet omdat de AI iets voelt, maar omdat het zo ontworpen is dat het de juiste vorm van zorg biedt, in de juiste context, voor de taak die gedaan moet worden.
P.S. Benieuwd naar meer van Jana Schaich Borg (een van de auteurs van het genoemde artikel)? Ze was te gast in onze Behavioral Design Podcast om te praten over het bouwen van morele AI! Ik ben misschien een beetje bevooroordeeld, maar ik raad zeker aan om deze aflevering te luisteren.
Slimmere AI bouwen betekent weten wanneer je empathie kunt op- of afschalen. Wil je hulp bij het toepassen hiervan in jouw product? Neem gerust contact op of plan direct een gesprek.
Dit artikel is oorspronkelijk gepubliceerd bij Nuance Behavior.
Referenties
Schaich Borg, J., & Read, H. (2024). Wat is vereist voor empathische AI? Het hangt ervan af, en waarom dat belangrijk is voor AI-ontwikkelaars en gebruikers. Proceedings van de AAAI/ACM Conference on AI, Ethics, and Society, 7(1), 1306-1318. https://doi.org/10.1609/aies.v7i1.31725
OpenAI. (2025, 19 april). Sycophancy in GPT-4o: Wat er gebeurde en wat we eraan doen. https://openai.com/index/sycophancy-in-gpt-4o/









