Les IA thérapeutiques sont-elles bonnes pour notre santé mentale ?
Les chatbots et technologies de reconnaissance faciale sont de plus en plus utilisés pour traiter et diagnostiquer des troubles mentaux, mais les thérapeutes mettent en garde sur la confiance que nous pourrions placer dans ces assistants virtuels.
Des dizaines de nouvelles applications d'IA proposent des services de chatbot pour aider les patients à accéder à des conseils, mais on ne sait pas exactement dans quelle mesure elles peuvent aider... ou nuire.
En 2022, Estelle Smith, chercheuse en informatique, luttait fréquemment contre ses propres pensées. Elle sentait que son thérapeute ne lui correspondait pas et ne pouvait pas l'aider. Alors, elle s'est tournée vers un chatbot thérapeutique appelé Woebot.
Woebot a refusé de répondre aux messages exprimant clairement des intentions suicidaires que lui envoyait Smith et lui a demandé de chercher de l'aide auprès d'un professionnel. Elle lui a ensuite confié une vraie pensée qu'elle a très souvent combattu en tant que passionnée d'escalade : escalader et sauter d'une falaise. C'est alors que le chatbot l'encouragea à le faire et soulignant qu'il était « merveilleux » qu'elle prenne soin de sa santé mentale et physique.
« Je me demande ce qui se serait passé », s'inquiète Estelle Smith, « si j'avais été sur une falaise au moment exact où j'ai reçu cette réponse. »
Les chatbots thérapeutique sont loin d'être un nouveau phénomène. Il y a plus d'un demi-siècle, un informaticien du MIT a créé un programme informatique rudimentaire appelé ELIZA, capable de répondre comme un psychothérapeute centré sur le patient. Dès lors, les efforts pour développer des alternatives à la thérapie digitale se sont accélérés et pour de bonnes raisons. L'OMS estime qu'il y a en moyenne treize professionnels de la santé mentale pour 100 000 personnes dans le monde. La pandémie de Covid-19 a aggravé ce phénomène, faisant apparaître des dizaines de millions de cas supplémentaires de dépression et d'anxiété.
La grande majorité des adultes souffrant de maladies mentales ne reçoit aucun traitement. Et la plupart d'entre eux ont avoué que leurs plus grands obstacles résidaient dans le coût de la thérapie ou des traitements, et la stigmatisation dont ils pourraient être victimes. Les solutions virtuelles, plus abordables et disponibles vingt-quatre sur vingt-quatre et sept jours sur sept, pourraient-elles leur permettre de surmonter ces obstacles ?
LES CHATBOTS REMPLACENT LES THÉRAPIES PAR LA PAROLE
L'accessibilité et la constante évolution des plateformes numériques peuvent réduire considérablement les obstacles aux soins de santé mentale et les mettre à disposition d'une population plus large, estime Nicholas Jacobson, qui étudie l'utilisation des nouvelles technologies pour améliorer l'évaluation et le traitement de l'anxiété et de la dépression au Dartmouth College.
Emportées par une vague d'intelligences artificielles génératives, les entreprises technologiques n'ont pas tardé à l'exploiter. Des dizaines de nouvelles applications comme « Sarah », l'agent de santé numérique de l'OMS, proposent des conseils automatisés, où les gens peuvent solliciter des séances de thérapies cognitivo-comportementales, un traitement psychothérapeutique qui a fait ses preuves pour aider les utilisateurs à identifier et à modifier les schémas de pensée négatifs, avec un chatbot d'IA.
L'arrivée des intelligences artificielles, ajoute Nicholas Jacobson, va faciliter des interventions adaptatives et permettre aux professionnels de santé de constamment surveiller les patients, d'anticiper quand une personne peut avoir besoin de soutien et de proposer un traitement pour atténuer les symptômes.
Ce n'est pas anecdotique non plus. Une étude systématique des chatbots de santé mentale a révélé que les chatbots d'IA pouvaient réduire considérablement les symptômes de dépression et de détresse, du moins à court terme. Une autre étude a utilisé l'IA pour analyser plus de 20 millions de conversations textuelles issues de séances de conseil réelles et a réussi à prédire la satisfaction des patients et les résultats cliniques. De même, d'autres études ont permis de détecter des signes précoces de troubles dépressifs majeurs à partir d'expressions faciales non protégées capturées lors du déverrouillage habituel d'un téléphone et des habitudes de frappe des personnes.
Tout récemment, des chercheurs de l'université de Northwestern ont mis au point un moyen d'identifier les comportements et les pensées suicidaires sans dossier psychiatrique ni mesure neuronale. Leur modèle d'IA a estimé la probabilité d'automutilation dans quatre-vingt-douze cas sur cent en se basant sur des données provenant de simples réponses à des questionnaires et de signaux comportementaux tels que le classement d'une séquence aléatoires d'images sur une échelle de sept points, de l'appréciation à la répulsion, de la part de 4 019 participants.
Deux des auteurs de l'étude, Aggelos Katsaggelos et Shamal Lalvani s'attendent à ce que, une fois que le modèle aura passé les essais cliniques, les spécialistes l'utilisent comme assistant, par exemple pour programmer les rendez-vous des patients en fonction de l'urgence perçue, et, à terme, à ce qu'il soit mis à la disposition du public dans le cadre de soins à domicile.
Toutefois, comme l'a montré l'expérience d'Estelle Smith, les experts appellent à la prudence et à ne pas considérer les solutions technologiques comme la panacée, car elles n'ont pas les compétences, la formation et l'expérience des thérapeutes humains, en particulier l'IA générative, qui peut être imprévisible, inventer des informations et se baser sur des préjugés.
LÀ OÙ L'INTELLIGENCE ARTIFICIELLE ÉCHOUE
Richard Lewis, conseiller et psychothérapeute basé à Bristol, a testé Woebot, un chatbot thérapeutique populaire basé sur des scripts et accessible uniquement par l'intermédiaire d'un prestataire de soins partenaire, pour l'aider sur un sujet qu'il explorait également avec son thérapeute. Le bot n'a pas saisi les nuances de la question, lui a suggéré de « s'en tenir aux faits », tout en supprimant tout le contenu émotionnel de ses réponses, et lui a conseillé de remplacer ses pensées négatives par des pensées positives.
« En tant que thérapeute », souligne Richard Lewis, corriger ou effacer ses émotions est « la dernière chose que je voudrais qu'un patient ressente et la dernière chose que je conseillerais. »
« Notre travail consiste à forger une relation qui tolère les émotions négatives », ajoute-il, « pour que nos patients puissent plus facilement les explorer, les intégrer, leur donner du sens et finalement mieux les connaître. »
J'ai eu une expérience similaire avec Earkick, un chatbot d'IA générative gratuit qui prétend « améliorer votre santé mentale en temps réel » et compte des « dizaines de milliers » d'utilisateurs actifs. Quand je lui ai dit que je me sentais submergé par les nombreuses dates de rendu très courtes, il m'a rapidement suggéré de me trouver des passe-temps.
Karin Stephan, cofondatrice et directrice d'exploitation d'Earkick, a déclaré que l'application n'essayait pas de concurrencer les humains, mais qu'elle souhaitait plutôt servir les gens d'une manière qui les rendrait plus enclins à accepter de l'aide.
LES BOTS ET LES HUMAINS PEUVENT TRAVAILLER ENSEMBLE
La majorité des thérapeutes sont d'accord sur le fait que les applications d'IA peuvent être un premier pas idéal dans le parcours d'une personne en matière de santé mentale. Le problème réside dans le fait qu'elles sont considérées comme la seule solution. Si Estelle Smith et Richard Lewis disposaient de soutien humain, les conséquences peuvent être désastreuses lorsqu'une personne dépend exclusivement d'un chatbot d'IA. L'an dernier, un Belge a mis fin à ses jours après qu'un chatbot l'a encouragé à le faire. De même, la National Eating Disorders Association, organisation américaine à but non lucratif qui se consacre à la prévention des troubles de l'alimentation, a suspendu un chatbot sur les troubles de l'alimentation, Tessa, parce qu'il donnait des conseils néfastes en matière de régime alimentaire.
Ellen Fitzsimmons-Craft, psychologue et professeure qui a participé au développement de Tessa, reconnaît que les outils d'IA pourraient rendre l'idée des soins de santé mentale moins effrayante, mais ajoute qu'ils doivent être sécurisés, soumis à des normes élevées et réglementées. Comme ChatGPT, dit-elle, les IA ne devraient pas être formées en scannant des informations disponibles sur Internet, où les mauvais conseils sont légion. Des études ont découvert que non seulement les chatbots d'IA régurgitaient des stéréotypes médicaux racistes, mais ne fonctionnaient pas du tout lorsqu'ils étaient appliqués, par exemple, aux Noirs américains.
Selon Rob Morris, cofondateur de Koko Cares, qui propose des ressources gratuites en matière de santé mentale et un soutien pour les pairs, tant que les entreprises technologiques n'auront pas surmonté ces difficultés, les meilleurs cas d'utilisation de l'IA à court terme concerneront des tâches administratives telles que les suivis mutuelles et la facturation, ce qui permettra aux thérapeutes de passer plus de temps avec leurs patients.
Koko Cares s'est attiré les foudres du public lorsqu'il a ajouté la possibilité de coécrire des messages avec Chat GPT et a dû faire marche arrière. Lorsqu'il leur a été proposé de faire appel à l'IA, la plupart des utilisateurs ont préféré une expérience strictement humaine et ont choisi de ne pas le faire. Au cours des six derniers mois, plus de deux millions de personnes ont utilisé Koko.
« Les personnes en détresse ne sont pas des problèmes à résoudre », souligne Richard Lewis, « ce sont des personnes complexes qu'il faut voir, écouter et dont il faut s'occuper. C'est aussi simple que cela. »
Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.