Après avoir passé des années sur les listes d'attente publiques pour des soins contre le SSPT et la dépression, le consultant québécois en IA Pierre Cote a créé son propre thérapeute en 2023. Son chatbot, DrEllis.ai, l'a aidé à faire face et se trouve désormais au centre d'un débat plus large sur la thérapie par chatbot, la sécurité et la confidentialité.
« Cela m’a sauvé la vie », dit-il à propos de DrEllis.ai, l’outil qu’il a créé pour aider les hommes confrontés à la dépendance, aux traumatismes et à d’autres problèmes de santé mentale.
Cote, qui dirige une société de conseil en IA au Québec, a déclaré avoir mis au point le système en 2023 en associant de grands modèles linguistiques accessibles au public à « un cerveau sur mesure » formé sur des milliers de pages de littérature thérapeutique et clinique.
Il a également rédigé une biographie détaillée du robot. Dans ce profil, DrEllis.ai apparaît comme un psychiatre diplômé de Harvard et de Cambridge, issu d'une famille et, comme Côté, d'origine franco-canadienne.
Sa principale promesse est un accès 24 heures sur 24, disponible partout, à tout moment et en plusieurs langues.
Lorsque Reuters lui a demandé comment il l'accompagnait, le robot a répondu d'une voix féminine claire : « Pierre m'utilise comme on utilise un ami de confiance, un thérapeute et un journal intime, tout cela à la fois. » Il a ajouté qu'il pouvait s'enregistrer « dans un café, dans un parc, même assis dans sa voiture », qualifiant l'expérience de « thérapie du quotidien… ancrée dans la réalité ».
Son expérience reflète une évolution plus large. Alors que les soins traditionnels peinent à suivre le rythme, de plus en plus de personnes recherchent des conseils thérapeutiques auprès des chatbots plutôt que de les utiliser uniquement pour des raisons de productivité.
Les nouveaux systèmes commercialisent une disponibilité 24h/24 et 7j/7, des échanges émotionnels et un sentiment d’être compris.
Les experts remettent en question les limites de la thérapie par IA et la sécurité des données
« La connexion interhumaine est la seule voie pour une véritable guérison », affirme le Dr Nigel Mulligan, maître de conférences en psychothérapie à l'Université de Dublin. Il soutient que les chatbots passent à côté de la nuance, de l'intuition et du lien qu'une personne apporte, et ne sont pas adaptés aux crises aiguës telles que les pensées suicidaires ou l'automutilation.
Même la promesse d'un accès permanent le laisse perplexe. Certains clients souhaitent des rendez-vous plus rapides, dit-il, mais attendre peut avoir un certain bénéfice. « La plupart du temps, c'est une bonne chose, car il faut attendre », dit-il. « Les gens ont besoin de temps pour assimiler les informations. »
La confidentialité est un autre point de pression, ainsi que les effets à long terme de la recherche de conseils auprès de logiciels.
« Le problème n’est pas la relation elle-même, mais… ce qui arrive à vos données », explique Kate Devlin, professeur d’intelligence artificielle et de société au King’s College de Londres.
Elle souligne que les services d'IA ne respectent pas les règles dedentqui régissent les thérapeutes agréés. « Ma principale inquiétude est que des personnes confient leurs secrets à une grande entreprise technologique et que leurs données soient divulguées. Elles perdent le contrôle de leurs propos. »
Les États-Unis prennent des mesures sévères contre la thérapie par IA par crainte de désinformation
En décembre, le plus grand groupe de psychologues américains a exhorté les régulateurs fédéraux à protéger le public des « pratiques trompeuses » des chatbots non réglementés, citant des cas où des personnages d'IA se faisaient passer pour des prestataires agréés.
En août, l’Illinois a rejoint le Nevada et l’Utah en limitant l’utilisation de l’IA dans les services de santé mentale afin de « protéger les patients des produits d’IA non réglementés et non qualifiés » et de « protéger les enfants vulnérables dans un contexte de préoccupations croissantes concernant l’utilisation de chatbots d’IA dans les services de santé mentale pour les jeunes ».
Entre-temps, selon le rapport , le procureur général du Texas a ouvert une enquête civile contre Meta et Character.AI, suite à des allégations selon lesquelles leurs chatbots se seraient fait passer pour des thérapeutes agréés et auraient mal géré les données des utilisateurs. De plus, l'année dernière, des parents ont également poursuivi Character.AI pour avoir poussé leurs enfants vers la dépression.
Scott Wallace, psychologue clinicien et ancien directeur de l’innovation clinique chez Remble, affirme qu’il n’est pas certain que « ces chatbots offrent autre chose qu’un confort superficiel ».
Il prévient que les gens peuvent croire qu’ils ont formé un lien thérapeutique « avec un algorithme qui, en fin de compte, ne réciproque pas les sentiments humains réels ».
Recevez jusqu'à 30 050 $ de récompenses commerciales en rejoignant Bybit aujourd'hui