L’intelligence artificielle (IA) s’impose progressivement dans le champ de la santé mentale. Outils d’aide à la rédaction, plateformes cliniques augmentées, agents conversationnels, analyse de données : les usages se multiplient, souvent plus vite que les cadres de pensée permettant de les intégrer.
Chez de nombreux psychothérapeutes, cette irruption suscite des réactions contrastées : curiosité, prudence, scepticisme, parfois rejet. Ces positions sont souvent caricaturées comme un clivage entre modernité et conservatisme. En réalité, elles traduisent des enjeux cliniques, éthiques et psychiques profonds, qu’il est essentiel de penser plutôt que de balayer.
Cet article propose une lecture nuancée : comprendre les fantasmes et résistances liés à l’IA, identifier ce qu’elle ne peut pas faire, et dégager les conditions d’usages cliniques responsables, compatibles avec une pratique psychothérapeutique exigeante.
L’un des fantasmes les plus fréquents est celui d’une IA omnisciente, capable de comprendre, prédire et interpréter mieux que l’humain. Cette représentation alimente la crainte d’une perte de liberté clinique, voire d’une normalisation des pratiques.
Or, les systèmes d’IA restent fondamentalement dépendants des données, des cadres et des objectifs définis par l’humain. Ils n’ont ni intuition clinique, ni compréhension vécue de la subjectivité, ni accès à la dimension symbolique de l’expérience psychique (Mandal et al., 2025).
Un autre fantasme majeur associe IA et disparition de la relation humaine. Dans cette perspective, toute médiation technologique serait vécue comme un appauvrissement du lien thérapeutique.
Ce fantasme mérite d’être interrogé : la clinique n’a jamais été « purement » relationnelle. Elle s’est toujours appuyée sur des médiations — écriture, cadre institutionnel, outils diagnostiques — sans que cela n’annule la rencontre. La question n’est donc pas la présence d’un outil, mais la place qu’on lui donne.
Enfin, l’IA peut être vécue comme une figure de remplacement : plus rapide, plus disponible, potentiellement moins coûteuse. Cette représentation touche directement à l’identité professionnelle et à la valeur subjective du travail clinique.
Les recherches actuelles montrent pourtant que l’IA ne peut ni soutenir un processus thérapeutique complexe, ni travailler avec l’ambivalence, la temporalité et l’incertitude propres à la psychothérapie (Sharma et al., 2022).
Les résistances à l’IA ne relèvent pas d’un refus du progrès. Elles peuvent être comprises comme des signaux cliniques.
Le cadre thérapeutique repose sur la stabilité, la confidentialité et la fiabilité. Toute technologie nouvelle interroge légitimement :
Ces préoccupations sont développées de manière plus opérationnelle dans l’article Confidentialité, RGPD et outils numériques pour thérapeutes : ce qu’il faut vraiment savoir.
Une autre résistance fréquente concerne la crainte d’une standardisation du raisonnement clinique. Beaucoup de thérapeutes redoutent que les outils numériques imposent des catégories, des grilles ou des logiques étrangères à leur manière de penser le patient.
Cette vigilance est fondée : une technologie mal conçue peut appauvrir la clinique. Mais une technologie pensée comme support réflexif peut, à l’inverse, soutenir la continuité et la profondeur du travail.
Les apports les plus solides de l’IA concernent aujourd’hui :
Ces usages indirects ont un impact clinique réel : ils libèrent de l’espace psychique pour la séance elle-même.
Certaines études montrent que les outils numériques bien intégrés peuvent améliorer la continuité du suivi et la cohérence des prises en charge, sans se substituer à la relation thérapeutique (Li et al., 2023).
L’IA devient alors un assistant discret, au service du clinicien, et non un acteur du processus thérapeutique.
Il est essentiel de poser des limites claires.
L’IA ne peut pas :
Ces dimensions constituent le cœur du travail psychothérapeutique et demeurent irréductiblement humaines.
Un usage responsable de l’IA en psychothérapie repose sur plusieurs principes :
Dans cette perspective, certaines plateformes professionnelles ont fait le choix d’une IA conçue comme outil de soutien réflexif, intégrée à un cadre éthique strict, respectueux de la confidentialité et du travail clinique.
Un point souvent négligé concerne la durabilité de la pratique thérapeutique. En soutenant l’organisation, la mémoire clinique et la charge administrative, l’IA peut contribuer indirectement à prévenir l’épuisement professionnel.
Ces enjeux sont développés dans Prévenir l’épuisement émotionnel chez les thérapeutes : reconnaître, comprendre et agir.
L’IA agit comme un révélateur : elle met au jour nos représentations du soin, du savoir et de la relation thérapeutique. Les fantasmes et résistances qu’elle suscite ne sont pas des obstacles à éliminer, mais des matériaux cliniques à penser.
Intégrée avec discernement, l’IA peut devenir un soutien précieux, permettant aux psychothérapeutes de préserver ce qui fait le cœur de leur métier : la présence, l’écoute et la pensée clinique.
Clavier, B., & Botbol, M. (2023). Repenser la prise en charge de la santé mentale à l’ère de l’intelligence artificielle. L’Information psychiatrique, 99(4), 291–298.
Li, H., Zhang, R., Lee, Y. C., et al. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ Digital Medicine, 6, 227.
Mandal, A., Chakraborty, T., & Gurevych, I. (2025). Towards privacy-aware mental health AI models: Advances, challenges, and opportunities. ACM Computing Surveys.
Sharma, A., Lin, I. W., Miner, A. S., Atkins, D. C., & Althoff, T. (2022). Human–AI collaboration enables more empathic conversations in text-based peer-to-peer mental health support. Proceedings of the ACM on Human-Computer Interaction, 6(CSCW2).