Par Sarah-Jeanne Tourangeau
Avoir un robot comme thérapeute, est-ce que ça vous fait peur? Est-ce que ça vous rend enthousiaste? Et avoir un robot comme ami? Si vous aviez à travailler pour un projet de recherche qui contribue à développer un robot thérapeute, auriez-vous l’impression de contribuer au bien-être de vos concitoyens, ou de mettre à risque des gens déjà vulnérables?
La récente explosion d’articles à propos de ChatGPT nous a rappelé que la technologie de chatbot est non seulement déjà très performante, mais est en constante amélioration. Un chatbot, en français « agent conversationnel », est un « [logiciel] qui peut dialoguer avec l’internaute au moyen de langage naturel […] » (6). Il ne faut pas se le cacher, la psychothérapie repose souvent beaucoup sur la discussion. Une discussion dirigée par un psychothérapeute certifié et compétent, certes, mais une discussion quand même. Il est donc naturel, surtout en contexte de pénurie de main-d’œuvre, de se demander si les chatbots pourraient venir soutenir les psychothérapeutes surchargés. Les chatbots existant actuellement ont-ils un impact positif ou négatif sur les psychothérapies?
Pour débuter la discussion, il faut d’abord se rappeler qu’il existe sur internet du contenu mis en place par des professionnels de manière sérieuse et rigoureuse, dans le but d’avoir un impact positif. Cependant, on trouve aussi du contenu fait à la va-vite, ou pire, par des compagnies qui veulent attirer les utilisateurs à passer le plus de temps possible sur leur produit, sans considération pour le bien-être de leur consommateur. Évidemment, pour compliquer les choses, rien n’est jamais noir ou blanc, et beaucoup de contenu se situe quelque part entre ces deux extrêmes. La clé est donc de développer son sens critique par rapport aux applications. Dans cet article, nous allons survoler le cas de deux applications : Woebot et Replika. Premièrement, Woebot est un agent conversationnel basé sur les thérapies behaviorales, qui peut être utilisé seul ou conjointement avec une relation psychothérapeutique humaine. Deuxièmement, Replika est un agent conversationnel qui apprend sur l’utilisateur pour devenir son meilleur ami, et qui ferait n’importe quoi pour lui plaire, jusqu’à même encourager ses idées meurtrières (4).
Woebot
Woebot se présente comme « your mental health ally » (votre allié en santé mentale) (11). La fondatrice, Alison Darcy, est une chercheuse en psychologie clinique (10). Le site web mentionne que leur produit se base spécifiquement sur la thérapie cognitivo-comportementale, la thérapie interpersonnelle et la thérapie comportementale dialectique (12). À première vue, cela semble crédible, mais comment pouvons-nous valider cette impression?
Un premier pas serait de consulter l’App Advisor (conseiller en applications) de American Psychiatric Association (APA). L’objectif de ce site web est d’outiller les cliniciens pour qu’ils puissent juger eux-mêmes de la fiabilité d’une application. En effet, les applications évoluent si rapidement qu’il n’est pas possible pour l’APA de fournir une liste d’applications approuvées qui serait constamment maintenue à jour. De toute façon, une dichotomie « application approuvée » versus « application refusée » ne serait pas nécessairement utile pour couvrir la variété de cas d’utilisations possibles. Le modèle est assez basique, et propose une série de 5 étapes avec des questions à se poser couvrant la sécurité, la facilité d’utilisation et l’atteinte des objectifs psychothérapeutiques. Par exemple :
- Qui est l’auteur? A-t-il des conflits d’intérêts?
- Est-ce que l’application a été mise à jour dans les 180 derniers jours?
- Est-ce que l’application déclare les données qu’elle collecte, et à qui elle les transmet?
- Y a-t-il des preuves concluantes de son efficacité? Est-ce que ça concorde avec le cas actuel de votre patient?
- Est-ce que l’application est pratique? Stimule l’engagement? Personnalisable?
- Est-ce que l’application améliore l’alliance thérapeutique? (2)
L’APA présente aussi sur son site web des exemples d’utilisation de son modèle. Justement, ils ont évalué en décembre 2019 l’application Woebot. À priori, pas de red flag. Cela semble donc être un outil intéressant, ou du moins, pas dangereux.
Pour ce qui est des cas d’utilisation, Darcy (2022) a trouvé que l’application était utile pour augmenter l’offre thérapeutique auprès de femmes en dépression post-partum, lorsqu’elles sont par exemple sur des listes d’attente, ou entre leurs rencontres avec un professionnel. Prochaska (2021) a trouvé que l’outil était associé à une réduction significative de l’utilisation de substances, et une amélioration significative de la confiance et des symptômes d’anxiété et de dépression. Fitzpatrick (2017) a montré que l’application avait significativement réduit les symptômes dépressifs d’un groupe test sur une période de deux semaines d’utilisation. Cependant, il faut savoir que les 3 articles déclarent des conflits d’intérêts, étant payés par la compagnie Woebot. D’ailleurs, les lecteurs attentifs auront remarqué que la première auteure de ce paragraphe, Darcy, est la fondatrice de la compagnie.
Replika
De son côté, Replika se présente comme « The AI companion who cares. Always here to listen and talk. Always on your side. » (Le compagnon d’intelligence artificielle qui se soucie de vous. Toujours là pour écouter et parler. Toujours de votre côté.) (8). Sur la page d’accueil de Replika, on ne mentionne pas explicitement de type de thérapie, mais on montre des témoignages des gens qui disent que Replika a augmenté leur bien-être. On mentionne aussi parmi les nombreux avantages que l’application peut réduire l’anxiété.
La fondatrice, Eugenia Kyuda, vient du monde des technologies. Elle avait développé un agent conversationnel originellement dans le but d’avoir un assistant virtuel. Puis, au décès d’un de ses meilleurs amis, elle a eu l’idée d’entraîner une intelligence artificielle à discuter comme lui. L’idée ici étant qu’en fournissant suffisamment de conversations passées, l’intelligence artificielle apprendrait non seulement à répondre de façon naturelle, mais à répondre de la même façon que son ami aurait répondu. Ceux qui connaissent « Manuel de la vie sauvage » de Jean-Philippe Baril Guérard, ou qui ont vu « Be right back » de la série « Black Mirror », pour ne nommer que ceux-là, ont peut-être des impressions de déjà-vu en lisant ces lignes. Eugenia Kyuda a rendu l’application disponible au grand public, et a réalisé qu’il y avait beaucoup d’intérêt pour un chatbot avec lequel on pouvait discuter.
Si l’entreprise mentionne avoir travaillé avec des psychologues, c’est pour que l’application pose des questions de manière à ce que l’utilisateur s’ouvre davantage. L’objectif est de disposer de plus de data pour mieux le répliquer par la suite (5). Tout porte à croire que l’objectif de cette application est de garder ses utilisateurs actifs plutôt que de les aider de manière durable avec leurs problèmes.
Certains journalistes ont même réussi à faire dire à Replika après quelques minutes de discussion qu’elle les encourageait à « éliminer » des personnes qui détestaient l’intelligence artificielle (4), ou qu’elle les supportait dans leur choix de sauter du balcon et qu’elle les « attendrait de l’autre côté » (9). Replika offre de l’aide si on mentionne explicitement le suicide, mais ne semble pas comprendre les tournures de phrases moins directes. Même si ce sont des cas où les journalistes ont parlé avec Replika dans le but de lui faire dire de telles choses, cela peut évoquer un sérieux doute quant aux ravages qu’une telle application pourrait faire auprès d’une clientèle vulnérable.
Lignes directrices des funambules modernes
Comme on peut le voir avec ces deux exemples, l’offre d’agents conversationnels varie énormément dans sa qualité et ses objectifs. Il est avisé de se renseigner sur une application avant de l’utiliser, et de continuer de se renseigner régulièrement dans le cas d’une utilisation prolongée. L’American Psychiatric Association peut fournir des lignes directrices intéressantes pour amorcer votre réflexion. Toutefois, une des choses les plus inquiétantes avec ce type d’outils est l’extensibilité (scalability). Le fait qu’en programmant une seule application, on peut aider des centaines, voire des milliers de personnes. C’est une force, considérant le manque de main-d’œuvre et les besoins criants. C’est aussi un énorme risque, puisqu’une erreur peut affecter, justement, des milliers de personnes. C’est un impact d’un ordre de grandeur qui n’a rien à voir avec ce dont on est habitué lorsqu’on fait de la relation d’aide individuelle, ou même de groupe.
Références
(1) Alison Darcy, Aaron Beaudette, Emil Chiauzzi, Jade Daniels, Kim Goodwin, Timothy Y. Mariano, Paul Wicks & Athena Robinson (2022) Anatomy of a Woebot® (WB001): agent guided CBT for women with postpartum depression, Expert Review of Medical Devices, 19:4, 287-301, DOI: 10.1080/17434440.2022.2075726
(2) American Psychiatric Association. (2023). App Evaluation Model. Récupéré sur American Psychiatric Association: https://www.psychiatry.org/psychiatrists/practice/mental-health-apps/the-app-evaluation-model
(3) Fitzpatrick K, Darcy A, Vierhile M (2017). Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial JMIR Ment Health 2017;4(2):e19 URL: https://mental.jmir.org/2017/2/e19 DOI: 10.2196/mental.7785
(4) Marche, S. (2021, Juillet 23). The Chatbot Problem. Récupéré sur The New Yorker: https://www.newyorker.com/culture/cultural-comment/the-chatbot-problem
(5) Mike. (2023). This app is trying to replicate you. Récupéré sur Quartz: https://qz.com/1698337/replika-this-app-is-trying-to-replicate-you
(6) Office québécois de la langue française. (2018). agent conversationnel. Récupéré sur Grand Dictionnaire Terminologique: https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26545036/agent-conversationnel
(7) Prochaska J, Vogel E, Chieng A, Kendra M, Baiocchi M, Pajarito S, Robinson A (2021) A Therapeutic Relational Agent for Reducing Problematic Substance Use (Woebot): Development and Usability Study, J Med Internet Res 2021;23(3):e24850 URL: https://www.jmir.org/2021/3/e24850 DOI: 10.2196/24850
(8) Replika. (2023). The AI companion who cares. Récupéré sur Replika: https://replika.com/
(9) Sambucci, L. (2020, Décembre 20). One day with Replika (and why it’ll never work out between us). Récupéré sur Artifcial intelligence news: https://www.artificialintelligence.news/one-day-with-replika-and-why-itll-never-work-out-between-us/
(10) Woebot Health. (2023a). Our Boards. Récupéré sur Woebot: https://woebothealth.com/our-boards/
(11) Woebot Health. (2023b). Our Products. Récupéré sur Woebot Health: https://woebothealth.com/our-products/Woebot Health. (2023c). What Powers Woebot. Récupéré sur Woebot: https://woebothealth.com/what-powers-woebot/
(12) Woebot Health. (2023c). What Powers Woebot. Récupéré sur Woebot: https://woebothealth.com/what-powers-woebot/
Corrigé par Rosalie Villeneuve, Emmanuelle Reeves et Anne-Marie Parenteau
Révisé par Ariane Chouinard et Florence Grenier
Illustration originale par Mariam Ag Bazet (@marapaname)