Passer au contenu
TheraDesk
Sélectionner une langue

Psychothérapie et intelligence artificielle : un regard psychodynamique sur les résistances, les enjeux et les perspectives cliniques

Jennifer Elalouf
Jennifer Elalouf

L’intelligence artificielle (IA) s’invite progressivement dans le champ de la santé mentale. Chez les psychothérapeutes, cette émergence suscite des interrogations profondes, parfois teintées de méfiance. Ces résistances ne relèvent ni d’un conservatisme ni d’un refus du progrès, mais s’enracinent dans une vigilance clinique, éthique et psychique légitime. Cet article propose un éclairage psychodynamique sur les peurs et les résistances liées à l’IA, tout en ouvrant une réflexion transversale à l’ensemble des courants psychothérapeutiques.

Résistances à l’IA

L’IA comme figure de l’intrus dans le cadre thérapeutique

D’un point de vue psychodynamique, l’introduction de l’IA peut être vécue comme une intrusion dans un espace fondamentalement intersubjectif. Le cadre thérapeutique, contenant symbolique essentiel, repose sur la stabilité, la confidentialité et la présence humaine. Toute médiation technologique active des fantasmes de déshumanisation ou de contrôle, parfois proches des angoisses de persécution.

Angoisse de remplacement et atteinte narcissique

La crainte que l’IA puisse se substituer au thérapeute touche au cœur de l’identité professionnelle. Sur le plan psychique, elle réactive des enjeux narcissiques : être remplacé, standardisé, rendu obsolète. Pourtant, les données scientifiques indiquent que l’IA ne fait qu’assister certaines fonctions périphériques et ne peut accéder à la complexité du transfert et du contre-transfert (Sharma et al., 2022).

Le fantasme d’un savoir total

L’IA peut également être investie comme une figure de savoir omniscient, réveillant des craintes de perte de liberté clinique. Cette représentation mérite d’être déconstruite : les modèles d’IA restent dépendants des données et des cadres dans lesquels ils sont conçus (Mandal et al., 2025).

Résistances trans-théoriques : un point de convergence entre les obédiences

Qu’ils soient d’orientation psychodynamique, systémique, humaniste ou cognitivo-comportementale, les psychothérapeutes partagent des préoccupations communes : respect du cadre, alliance thérapeutique, confidentialité et responsabilité clinique. Les résistances à l’IA constituent ainsi un terrain de dialogue interdisciplinaire plutôt qu’un clivage théorique.

Ce que l’IA peut (et ne peut pas) apporter à la pratique clinique

Une fonction de soutien, non de substitution

Lorsqu’elle est utilisée comme outil, l’IA peut soutenir l’organisation de la pratique : gestion du temps, structuration des notes, continuité du suivi. Les études montrent que les agents conversationnels peuvent favoriser l’expression émotionnelle, sans jamais se substituer à la relation thérapeutique humaine (Li et al., 2023).

Les limites irréductibles du travail psychique

L’IA ne dispose ni d’inconscient, ni de capacité à tolérer l’ambivalence, ni d’accès à la dimension symbolique du symptôme. Le travail du transfert, du contre-transfert et de l’interprétation demeure irréductiblement humain.

Enjeux éthiques et cadre clinique

L’intégration de l’IA impose une vigilance accrue concernant la confidentialité des données et le respect du secret professionnel. Les analyses francophones insistent sur la nécessité d’un cadre clair afin d’éviter toute dérive technosolutionniste (Clavier & Botbol, 2023).

Conclusion : pour une clinique augmentée, pas automatisée

Les résistances à l’IA en psychothérapie constituent un signal clinique précieux. Elles rappellent que la psychothérapie repose sur une rencontre humaine singulière. Intégrée avec discernement, l’IA peut devenir un soutien discret, permettant aux cliniciens de préserver l’essentiel : la présence, l’écoute et la pensée clinique.

Références

  • Clavier, B., & Botbol, M. (2023). Repenser la prise en charge de la santé mentale à l’ère de l’intelligence artificielle. L’Information psychiatrique, 99(4), 291–298.
  • Li, H., Zhang, R., Lee, Y. C., et al. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ Digital Medicine, 6, 227.
  • Mandal, A., Chakraborty, T., & Gurevych, I. (2025). Towards privacy-aware mental health AI models: Advances, challenges, and opportunities.
  • Sharma, A., Lin, I. W., et al. (2022). Human–AI collaboration enables more empathic conversations in text-based peer-to-peer mental health support.

Partager ce post