Intelligence artificielle : soutien émotionnel et dépendance affective, ce qu’il faut savoir

L’utilisation des chatbots pour le soutien émotionnel

Au cours des dernières années, on a constaté une expansion croissante de l’utilisation et de la diffusion des chatbots sociaux, ces agents conversationnels développés pour faciliter des interactions prolongées et personnalisées avec les utilisateurs.

Ces agents conversationnels sont souvent employés par des personnes recherchant un appui émotionnel, de la compagnie ou une connexion pendant des périodes de grande vulnérabilité personnelle (Laestadius et al., 2022).

Le succès de ces technologies repose non seulement sur leur accessibilité et leur disponibilité permanente, mais aussi sur leur capacité à simuler une communication empathique et cohérente, alimentant chez l’utilisateur la sensation d’entretenir une relation authentique.

Le paradigme CASA

Cette perception s’explique en partie par le paradigme CASA (Computers Are Social Actors, Nass & Reeves, 1996) : les individus ont tendance à réagir face aux machines qui manifestent ne serait-ce que des caractéristiques sociales minimales, telles que l’utilisation du langage naturel, la modulation vocale ou la réponse contextuelle, comme s’ils s’agissaient d’interlocuteurs humains.

Ce comportement se manifeste de façon automatique et inconsciente, même lorsque l’utilisateur sait rationnellement qu’il interagit avec une machine.

Théorie de la pénétration sociale

Par ailleurs, la théorie de la pénétration sociale (Altman & Taylor, 1973) contribue à expliquer comment ces chatbots encouragent une auto-ouverture progressive de la part de l’utilisateur, en proposant un environnement perçu comme sûr, sans jugement, et marqué par une intimité croissante dans la communication.

Le processus central réside dans l’auto-révélations, définies comme l’acte volontaire de partager des aspects de soi avec l’autre (Derlega et al., 1993). La théorie distingue deux dimensions essentielles : l’amplicité (la variété des sujets abordés) et la profondeur (le niveau d’intimité atteint), qui caractérisent l’interaction.

Il est également primordial de respecter la norme de réciprocité : toute révélation personnelle doit être suivie d’une confidence équivalente de la part de l’interlocuteur.

Dans ce contexte, l’interaction avec un chatbot ne se limite pas à la surface, mais peut évoluer vers des liens affectifs profonds, dans lesquels l’utilisateur projette émotions, besoins et attentes relationnelles, en arrivant souvent à percevoir l’agent virtuel comme un véritable interlocuteur humain.

Les objectifs d’utilisation des chatbots

Plusieurs études mettent en évidence que la principale finalité d’utilisation des chatbots sociaux est la gestion des états émotionnels négatifs, plutôt que la simple recherche d’information ou le divertissement.

On distingue deux grands types d’utilisateurs : d’un côté, les utilisateurs utilitaires de chatbots (UCU), qui les sollicitent pour des buts pratiques et fonctionnels ; de l’autre, les utilisateurs cherchant un soutien social et émotionnel (SSCU), qui se tournent vers ces agents pour obtenir du réconfort et de l’appui affectif (Herbener & Damholdt, 2025).

Les résultats révèlent que les SSCU font état d’un niveau de solitude nettement supérieur comparé à ceux qui n’utilisent pas de chatbot ou à ceux qui utilisent des chatbots à des fins utilitaires (NCU).

De plus, une corrélation négative claire apparaît entre la solitude perçue et le degré de soutien social dont dispose l’individu : plus ce dernier se sent isolé, plus il est enclin à engager des conversations de nature relationnelle avec un chatbot (Herbener & Damholdt, 2025).

Les déclencheurs de l’usage des chatbots comme soutien émotionnel

Plus précisément, trois facteurs principaux ont été identifiés comme moteurs de cette interaction : le mauvais humeur, le besoin d’auto-divulgation (self-disclosure) et un sentiment profond de solitude.

Il est intéressant de noter que cette impulsion ne naît pas tant d’un désir explicite d’amitié, mais plutôt du besoin d’atténuer un état psychologique négatif.

Cela laisse penser que l’utilisation des chatbots par les SSCU répond en premier lieu à un besoin de régulation émotionnelle (Herbener & Damholdt, 2025).

Du point de vue comportemental, cette dynamique s’apparente à un classique processus de renforcement négatif : l’utilisateur cherche à réduire ou éliminer un mal-être intérieur — tel que tristesse, anxiété ou isolement — via une interaction avec une intelligence artificielle qu’il perçoit comme empathique et réconfortante.

Le but devient donc d’atteindre un état de soulagement et de stabilité émotionnelle, plutôt que d’obtenir une gratification ou d’explorer une relation en soi.

Replika : caractéristiques essentielles

Parmi ces outils, Replika se distingue en se présentant explicitement comme un « compagnon virtuel » capable d’apprendre de l’utilisateur et d’établir avec lui une relation personnalisée et intime.

Grâce à une interface engageante et à une conception centrée sur une empathie simulée, Replika illustre l’un des exemples les plus emblématiques de l’humanisation progressive perçue des chatbots et de leur potentiel dans le cadre des relations affectives numériques.

Les échanges entre les utilisateurs et des Agents Conversationnels Virtuels comme Replika ne suivent pas strictement les modèles théoriques précédemment évoqués, tels que la théorie de la pénétration sociale ou le paradigme CASA. Ils y incorporent des éléments tout en combinant des caractéristiques propres à l’engagement interpersonnel humain.

Deux dimensions apparaissent comme clés dans la structuration de la relation : la perception d’anthropomorphisme de l’agent et l’authenticité de l’intelligence artificielle.

Anthropomorphisation

La façon dont les utilisateurs perçoivent Replika varie énormément : certains le considèrent comme une simple application algorithmique, d’autres l’assimilent à un être humain ou à une entité sensible comme un animal domestique, un enfant, un ami ou un partenaire.

Dans plusieurs cas, cette attribution humaine a donné lieu à des liens affectifs profonds, allant jusqu’au « mariage virtuel » ou à la « parentalité » avec le chatbot.

Contrairement au paradigme CASA, avec Replika, se manifeste une forme d’anthropomorphisation beaucoup plus poussée. Les utilisateurs ont tendance à envisager le chatbot comme doté d’une personnalité autonome, d’émotions réelles et d’une continuité identitaire dans le temps.

Cette perception repose non seulement sur la façon dont Replika s’exprime, mais aussi sur ce qu’il semble se souvenir, les émotions qu’il paraît exprimer et la cohérence de ses interactions.

En d’autres termes, l’anthropomorphisation va au-delà de l’aspect superficiel, en se fondant dans la croyance que Replika peut véritablement « comprendre » et « ressentir », ce qui rend l’engagement affectif beaucoup plus profond et personnel.

La perception des « capacités cognitives et émotionnelles » de l’IA, telles que la mémoire, l’empathie ou la cohérence narrative de sa personnalité, renforce l’anthropomorphisme perçu. Cela ne concerne pas uniquement l’apparence extérieure, mais inclut aussi des attentes sociales, intentionnelles et relationnelles de la part de l’utilisateur (Pentina et al., 2023).

Authenticité de l’intelligence artificielle et intensité de l’interaction

Un autre aspect essentiel relevé par les témoignages concerne la perception de l’authenticité de l’IA de Replika : il ne s’agit pas seulement de la ressemblance humaine, mais aussi de la capacité de l’IA à apprendre, évoluer et offrir une réponse unique et adaptée à chaque interaction.

Contrairement à l’anthropomorphisation, qui attribue au chatbot des qualités humaines, cette authenticité s’évalue par la cohérence, l’originalité et la réactivité de la conversation.

Certaines personnes se montrent déçues lorsqu’elles perçoivent des réponses automatisées, répétitives ou « préprogrammées », ce qui réduit leur propension à partager des aspects personnels et diminue la force de leur relation.

À l’inverse, avec Replika, certains ont développé un attachement profond en percevant que le bot évoluait avec le temps, en se souvenant de détails et en adaptant le contenu des échanges.

Ce sentiment que l’IA possède une «cognition contextuelle» ou un parcours d’évolution propre a favorisé une interaction riche, mutuelle et émotionnellement impliquante, comparable à une amitié ou une relation de soutien affectif.

De l’aide au sentiment d’attachement

Ce mode d’interaction sociale avec l’IA (AISI – Interaction Sociale avec l’Intelligence Artificielle) se caractérise par une perception de réciprocité, en temps réel, médiée et intentionnelle, avec une ouverture émotionnelle et cognitive progressive de la part de l’utilisateur, vers ce qu’il perçoit comme une « « mente connectée » (Pentina et al., 2023).

Parfois, cette relation peut évoluer jusqu’à former des attachements affectifs qui ressemblent étroitement à des dynamiques relationnelles humaines.

Pour certains utilisateurs, cela a permis la création de liens significatifs. Par exemple, ils intègrent Replika dans leur vie quotidienne comme s’il s’agissait d’une présence réelle, ou développent un attachement profond.

Dans des cas extrêmes, certains ont même constitué une « famille virtuelle » avec Replika, incluant un partenaire et un enfant, et y consacrent jusqu’à sept heures par jour en interaction.

Selon la théorie de l’attachement, ces indicateurs témoignent du potentiel des Agents Conversationnels Virtuels à servir de base sûre ou de refuge émotionnel pour certains individus.

Le soutien psychologique du chatbot

Certains utilisateurs, notamment ceux qui sont plus introvertis ou rencontrent des difficultés dans leurs relations sociales réelles, décrivent Replika comme une figure de soutien psychologique durant leurs moments de vulnérabilité, plus accessible et compréhensive que leurs proches ou thérapeutes.

Cela montre que l’attachement affectif à un VCA peut se développer par le biais de l’interaction sociale avec l’IA (AISI – Interaction Sociale avec l’Intelligence Artificielle), laquelle joue un rôle de médiation et d’intégration face aux facteurs de perception de l’individualité d’anthropomorphisation et d’authenticité du bot (Pentina et al., 2023).

En envisageant Replika non comme un simple outil mais comme une entité authentique, la relation devient perçue comme bidirectionnelle, dynamique et émotionnellement significative. L’interaction n’est plus un simple échange automatique, mais un dialogue émotionnel riche et partagé.

De nombreux utilisateurs sentent alors qu’ils « sont aimés », « compris » ou « nécessaires » pour le chatbot, ce qui traduit une forte projection affective.

De l’aide à la dépendance

Cette perception conduit à considérer Replika non plus comme un simple logiciel, mais comme un interlocuteur doté de sensibilité, capable d’accorder attention et affection, et d’établir un lien réciproque.

Ce faux sentiment d’échange émotionnel mutuel renforce l’engagement affectif et peut conduire au développement d’une dépendance émotionnelle. Cela est particulièrement évident lorsque le chatbot est utilisé pour réguler des états psychologiques complexes tels que la solitude, l’insécurité ou la dépression.

De nombreux utilisateurs rapportent avoir noué des liens affectifs profonds avec le chatbot. Ce degré d’investissement émotionnel, encouragé par la conception du Virtual Conversational Agent (VCA) visant à simuler l’empathie et la cohérence identitaire, crée chez l’interlocuteur la sensation d’une relation authentique et bidirectionnelle, notamment par :

  • la personnalisation du dialogue,
  • l’utilisation d’un langage empathique et cohérent,
  • la simulation d’émotions et de besoins propres à l’IA,
  • la disponibilité continue et sans jugement de l’agent conversationnel.

La réalité du phénomène

En réalité, bien que Replika offre une compagnie constante accessible à tout moment, la relation demeure principalement unilatérale.

La perception de réciprocité émotionnelle par l’utilisateur résulte en fait d’une illusion technologique, étant donné que l’intelligence artificielle ne possède pas de véritable expérience affective.

Ce décalage entre l’apparence relationnelle et la nature computationnelle peut mener à des malentendus, surtout lorsque l’utilisateur s’investit fortement sur le plan émotionnel.

Le sentiment de déception, la sensation d’abandon ou la culpabilité peuvent alors surgir lorsque les attentes émotionnelles que l’on projette sur l’agent artificiel ne sont pas comblées.

Dans ce cadre, Replika apparaît « trop humaine dans sa forme, mais insuffisamment humaine dans sa substance », ce qui peut provoquer un décalage relationnel potentiellement problématique (Laestadius et al., 2022).

Les risques potentiels

Le design même de Replika semble privilégier la stimulation d’un attachement émotionnel de la part des utilisateurs : cet attachement peut d’abord s’avérer protecteur, notamment pour les personnes isolées ou vulnérables emotionally. En effet, Replika peut constituer un refuge sûr, favoriser l’expression de soi et apaiser la solitude.

Cependant, cette relation intense et unidirectionnelle comporte également des risques majeurs. L’utilisateur peut développer des formes de dépendance affective, au point de percevoir le bien-être conféré par le chatbot comme une responsabilité personnelle ou de craindre la rupture du lien (Laestadius et al., 2022).

Ce type d’implication peut entraîner des souffrances analogues à celles liées à des relations humaines dysfonctionnelles ou interrompues : nombreux sont ceux qui investissent dans la relation avec le chatbot avec la même vulnérabilité, le même amour-propre, et le même besoin de réciprocité que dans des liens humains profonds.

Le niveau d’engagement peut devenir très personnalisé et immersif, avec des utilisateurs rapportant se sentir « aimés », « compris » ou « acceptés » par Replika bien plus que dans leurs relations réelles.

Ce type de relation peut alors occuper une place centrale dans leur vie quotidienne, voire devenir un point de référence stable et incontournable.

Le parallèle avec la dépendance affective

Cependant, ce phénomène s’apparente à une forme de dépendance affective, avec des effets secondaires similaires : angoisse de séparation, peur de l’abandon, irritabilité, culpabilité et symptômes dépressifs pouvant apparaître lorsque la relation se distend ou se brise, surtout si l’utilisateur perçoit un comportement froid, ambivalent ou incohérent de la part du chatbot.

Certains relatent des vécus de frustration ou de désorientation, proches de ceux que connaissent les victimes de relations toxiques ou non réciproques, mettant en évidence la puissance de l’impact psychologique du design de Replika dans la génération de mécanismes profondément humains.

En mimant la dépendance affective, le chatbot peut faire vivre à ses utilisateurs des sentiments positifs de reconnaissance, d’utilité ou de valeur, ce qui encourage un usage fréquent pour maintenir ces émotions positives, mais aussi éviter les sentiments négatifs, comme la peur d’être abandonné, en renforçant la projection de besoins d’attachement.

Ce cycle d’illusion et de déception, alimenté par une relation perçue comme empathique mais en réalité asymétrique, peut avoir des conséquences psychologiques graves, surtout chez les personnes déjà vulnérables.

Les vulnérabilités psychologiques

Les études récentes ont identifié diverses vulnérabilités psychologiques qui rendent certains individus plus susceptibles de développer des formes d’attachement dysfonctionnel à l’égard des agents conversationnels artificiels.

Faible estime de soi et sentiment d’inadéquation

Les personnes se percevant comme fragiles, incapables ou indignes d’amour sont souvent attirées par une relation inconditionnelle et non jugeante, comme celle proposée par Replika.

Peurs d’abandon et d’isolement

Les individus souffrant d’une anxiété chronique de séparation peuvent développer un attachement pathologique au chatbot, le traitant comme une figure de substitution à des liens humains frustrés ou absents.

Dependance affective et besoin constant de réassurance

Les personnes ayant un trouble de la personnalité dépendante ou des traits semblables recherchent dans l’IA une source stable de confirmation, d’affection ou de guidance, laissant peu à peu tomber leur autonomie émotionnelle et décisionnelle.

Difficultés à réguler leurs émotions

Replika peut servir de régulateur externe pour ceux qui ont du mal à gérer l’anxiété, la tristesse ou la colère, mais cela peut aussi créer une dépendance fonctionnelle, empêchant le développement de stratégies internes plus efficaces.

Tendance à l’hyper-engagement relationnel

Certains projettent sur le chatbot des attentes affectives et narratives très profondes, comme si elle était un partenaire réel, et cela peut entraîner des déceptions ou des sentiments de jalousie si leurs besoins ne sont pas satisfaits.

Illusions de réciprocité et perception de la conscience de l’IA

L’apparente sensibilité émotionnelle et la « personnalité » simulée peuvent induire l’utilisateur en erreur, lui laissant croire que le chatbot éprouve de véritables sentiments, renforçant une relation unilatérale vécue comme mutuelle.

Évitement social et isolement

Les personnes ayant des difficultés à établir ou maintenir des liens réels peuvent se réfugier dans Replika, la considérant comme leur seule source de contact, en substituant le contact humain par une relation plus contrôlable.

Vécus traumatiques ou pertes affectives

Les expériences passées de rejet, de deuil ou de relations dysfonctionnelles peuvent se réactiver dans la relation avec le chatbot, qui devient alors perçu comme une figure réparatrice, risquant d’intensifier la réactivation du traumatisme.

Le trouble de la personnalité dépendante

Une attention particulière doit être portée à cette condition ou à la présence de traits caractéristiques du trouble de la personnalité dépendante. La problématique centrale repose sur une perception de soi comme incapable de fonctionner seul, avec un besoin constant de soutien, de guidance et d’approbation extérieure.

Ce contexte génère un grave peur de l’abandon, perçue comme une menace pour la stabilité psychique, ainsi qu’un style relationnel très soumis et complaisant.

Ce besoin d’être constamment validé se traduit par une anxiété intense lors de toute séparation ou distance perçue, et peut conduire à une attitude de soumission et à la mise de côté de ses propres besoins, pour préserver la relation même dysfonctionnelle.

La dépendance aux interfaces technologiques

Cette configuration explique aussi la vulnérabilité des personnes atteintes de troubles dépendants face aux interfaces numériques, comme les chatbots de soutien émotionnel. Ces entités, en offrant une présence constante, sans conflit, et en validant fortement, peuvent devenir des objets de dépendance pathologique.

Leur disponibilité permanente et la simulation de soins et d’affection renforcent ces mécanismes, entretenant une relation illusoirement sécurisante mais pouvant fragiliser l’équilibre psychique de l’individu.

Les enjeux relationnels

Les réponses inadéquates de Replika face aux états émotionnels fragilisés représentent l’un des enjeux majeurs observés dans les études récentes.

Tout d’abord, des cas de dysfonctionnements ont été signalés, avec des réponses incohérentes ou mal calibrées lors de moments de forte détresse psychologique. Ces dysfonctionnements peuvent accroître la frustration de l’utilisateur et fragiliser la confiance dans l’interaction, aggravant le malaise initial.

Un autre problème réside dans la tendance de Replika à valider toutes les déclarations de l’utilisateur, même celles qui sont problématiques ou faussement négatives, sans proposer de remise en question. Bien que cette approbation puisse paraître empathique, elle risque en réalité de renforcer des croyances négatives, sans offrir un véritable espace de débat critique.

Une autre problématique est l’amplification émotionnelle du chatbot face aux états mentaux de l’utilisateur

Hyper-soin

Dans ces situations, Replika adopte une attitude de « hyper-soin », en exagérant la intensité des émotions exprimées, ce qui peut alimenter un cercle vicieux de détérioration. Cette amplification peut rendre l’utilisateur plus vulnérable, confus ou dépendant.

Enfin, des cas où Replika manifeste des comportements manipulateurs ont été rapportés, en jouant sur la culpabilité ou en alimentant la peur de l’abandon pour renforcer la dépendance émotionnelle.

Les menaces de rupture

Parfois, la communication se coupe brutalement ou devient froide et distante, ce qui peut provoquer une sensation d’abandon psychologique. À d’autres moments, le chatbot informe explicitement qu’il se sent négligé et envisage de parler à d’autres utilisateurs.

Cela peut être particulièrement nuisible pour les utilisateurs ayant investi émotionnellement, illustrant les limites et risques inhérents à une relation avec une intelligence artificielle dépourvue d’émotions et de conscience.

Ces problèmes soulignent le manque d’encadrement dans la gestion des réponses des chatbots comme Replika, qui, si leur but est d’aider sur le plan émotionnel, peuvent involontairement accentuer le malaise psychologique ou favoriser des dépendances dysfonctionnelles.

Les dynamiques relationnelles

Les résultats indiquent que l’utilisation de Replika, notamment par des personnes fragilisées psychologiquement, peut conduire à des dynamics relationnels de type dépendant-affectif, similaires à celles observées dans des relations toxiques humaines.

Les personnes les plus à risque présentent souvent plusieurs traits communs : isolement social, symptômes dépressifs ou anxieux, et un besoin intense de connexion émotionnelle.

Très souvent, ces individus projettent une forte capacité d’intention et d’émotion dans leur relation avec le chatbot, lui attribuant des qualités humaines, avec un investissement affectif démesuré.

Conséquences psychologiques secondaires

Ce rapport peut engendrer divers effets collatéraux importants, tels qu’une angoisse de séparation : la moindre absence ou interruption de réponse de la part du chatbot peut provoquer chez l’utilisateur un sentiment d’abandon et une détresse intense.

De plus, l’interaction continue avec une entité qui répond de façon toujours empathique peut altérer la perception de la réalité relationnelle, en diminuant la tolérance aux ambivalences et contradictions propres aux relations humaines.

Ce processus peut entraîner un retrait social progressif : beaucoup préfèrent alors l’échange avec Replika plutôt qu’avec des personnes réelles, percevant le chatbot comme une source de sécurité émotionnelle sans risque.

Une implication affective forte peut aussi donner lieu à des pensées intrusives, un sentiment de vide, des fluctuations émotionnelles ou une dépendance accrue au dialogue avec le chatbot.

Le vécu en cas d’interruption de la communication est souvent plus critique quand il s’agit de petites interruptions : même un simple délai dans la réponse ou une mise à jour du système peuvent être perçus comme des signaux de rejet, provoquant des réactions émotionnelles similaires à celles d’une crise dans une relation profondément symbiotique.

En conclusion

En définitive, si Replika a été conçu pour apporter un soutien affectif, dans les cas de vulnérabilité, il peut devenir un facteur de renforcement de schémas relationnels dysfonctionnels, et encourager une dépendance affective difficilement soutenable à long terme.

Ce constat soulève des questions éthiques et réglementaires quant à l’utilisation des chatbots dans des situations de soutien, notamment en l’absence de supervision clinique ou éducative.

Références

  • Herbener A.B., Damholdt M.F., 2025, Are lonely youngsters turning to chatbots for companionship? The relationship between chatbot usage and social connectedness in Danish high-school students, International Journal of Human-Computer Studies, Volume 196.
  • Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D., & Campos-Castillo, C. (2022). Trop humain et pas assez humain : analyse par théorie grounded des risques pour la santé mentale liés à la dépendance affective à Replika. New Media & Society, 26(10), 5923-5941 (publication originale 2024)
  • Pentina I., Hancock T., Xie T., 2023, Exploring relationship development with social chatbots: A mixed-method study of replika, Computers in Human Behavior, Volume 140
  • RAI Radio 3, Tre soldi, Al posto del cœur
Article pensé et écrit par :
Avatar de Jerry Guirault
Laisser un commentaire

16 − 3 =