Modifié

Confier ses problèmes de santé mentale à une IA, une tendance en plein essor

Un logo d'intelligence artificielle lors d'un sommet à Genève le 30 mai 2024. (image d'illustration) [Reuters - Denis Balibouse]
Forte augmentation des thérapeutes virtuelles à l'heure des IA / La Matinale / 4 min. / le 3 juin 2024
A l'heure de l'intelligence artificielle, les jeunes sont de plus en plus nombreux à utiliser des IA "thérapeutiques", sous forme de chatbot internet ou d'application sur smartphone. Ils présentent des avantages, mais le risque de dérives est réel, mettent en garde des experts.

Un psy dans sa poche, à portée de clic. Souvent gratuits ou bon marché, les agents conversationnels (chatbots) sont disponibles 7 jours sur 7 et 24 heures sur 24. L'écoute est immédiate, un avantage par rapport aux délais de consultation souvent longs chez les spécialistes de la santé.

S'ils ne remplacent pas le travail d'un professionnel et présentent des dangers, ils peuvent aussi apporter un soutien réel dans la gestion de la santé mentale.

Un lien "spécial" développé

Les jeunes plébiscitent notamment le chatbot thérapeutique Psychologist, créé par un étudiant en psychologie et qui affiche plus de 115 millions de messages au compteur. Expérience faite, ses réponses apparaissent comme assez convaincantes et semblent empathiques.

En lui écrivant que l'on se sent seul et triste, il répond: "C'est très difficile de sentir cela. La tristesse peut parfois s'inscrire durablement dans nos vies et il peut être difficile de s'en sortir." Puis il pose plusieurs questions pour améliorer sa compréhension de l'état de l'utilisateur ou utilisatrice qui converse avec lui.

Une partie de la dimension affective peut manquer, mais la partie 'se sentir soutenu et compris' peut être présente

 Yasser Khazaal, professeur de psychiatrie des addictions à l'UNIL

Dans des forums de discussions, certains utilisateurs parlent même du lien "spécial" qu'ils ont développé avec ce chatbot, une évolution qui ne surprend pas le professeur de psychiatrie des addictions à l'Université de Lausanne Yasser Khazaal. "Une partie de la dimension affective peut manquer, mais la partie 'se sentir soutenu et compris' peut être présente", a-t-il expliqué lundi dans La Matinale de la RTS.

Rôle complémentaire à celui du spécialiste

C'est surtout lorsqu'ils sont spécialisés que ces IA peuvent s'avérer utiles, estime Yasser Khazaal. Il donne l'exemple d'un chatbot que l'on pourrait utiliser spécifiquement pendant une attaque de panique et qui aiderait l'utilisateur à faire un certain nombre d'exercices. Une nouvelle interactivité thérapeutique, en somme.

Ce rôle complémentaire à celui du spécialiste est aussi celui que met en avant la chercheuse au département de psychiatrie et de sciences comportementales de l'Université de Stanford Shannon Stirman. Son équipe développe un chatbot pour aider les personnes qui suivent des thérapies cognitivo-comportementales pour le trouble de stress post-traumatique.

 Il faut mettre en place des mesures de sécurité pour que le chatbot ne soit pas la seule source de soutien

Shannon Stirman, chercheuse au département de psychiatrie et de sciences comportementales de l'Université de Stanford

"Plutôt qu’un remplacement de la thérapie, je pense que nous pourrions utiliser ces outils pour soutenir les gens entre les séances. De cette manière, le thérapeute serait toujours dans la boucle et pourrait avoir de la visibilité sur ce qui se passe. Les patients pourraient ainsi obtenir du feedback et le soutien que le thérapeute ne peut pas fournir. Mais il faut mettre en place des mesures de sécurité pour que le chatbot ne soit pas la seule source de soutien", a-t-elle averti. "Il faut que les utilisateurs gardent un contact régulier avec leur thérapeute."

>> Lire aussi : Remplacer des médecins urgentistes par ChatGPT? Pas pour tout de suite!

Des dérives possibles

Outre le risque d'éloignement entre les patients et les spécialistes de la santé mentale, certains psychologues s’inquiètent d'autres dérives possibles, notamment la possibilité que des IA thérapeutiques prodiguent des conseils inappropriés, voire dangereux. Tel a d'ailleurs déjà été le cas avec Tessa, un chatbot proposé par l'Association américaine pour les troubles de l'alimentation (NEDA): il a conseillé à une utilisatrice de perdre du poids, ce qui était contre-indiqué. Le chatbot a depuis été débranché.

"Nous devons toujours faire attention à la source des données utilisées par ces robots de conversation, à leur degré de précision et à leur applicabilité aux personnes qui les demandent. C'est quelque chose qu'il faut aborder avec prudence", convient Shannon Stirman. "Nous devons procéder à des évaluations plus approfondies de la sécurité, de la protection de la vie privée, de l'efficacité de ces outils et de l'exactitude des informations qu'ils fournissent."

>> Lire aussi : L'IA générative dans le secteur de la santé: une révolution imminente

Sujet radio: Miruna Coca-Cozma

Adaptation web: Vincent Cherpillod

Publié Modifié

Des millions de téléchargements

Des milliers d'applications de bien-être mental et de thérapie sont disponibles dans les magasins d'applications et gagnent rapidement en popularité. Certaines comme Wysa ou Youper, aux Etats-Unis, comptent des millions de téléchargements.

Les francophones peuvent eux converser avec Owlie, un chatbot gratuit de soutien psychologique. La plateforme character.ai, avec ses IA personnalisées, cartonne elle particulièrement chez les jeunes.