Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnWeb3CommunautéPlus
Trading
Spot
Achat et vente de cryptos
Marge
Amplifiez et maximisez l'efficacité de vos fonds
Onchain
Going Onchain, without going Onchain!
Convert
Aucun frais de transaction ni slippage
Explorer
Launchhub
Prenez l'avantage dès le début et commencez à gagner
Copy
Copiez des traders experts en un clic
Bots
Bots de trading IA simples, rapides et fiables
Trading
Futures USDT-M
Futures réglés en USDT
Futures USDC-M
Futures réglés en USDC
Futures Coin-M
Futures réglés en cryptomonnaies
Explorer
Guide des Futures
Le parcours de trading de Futures, du débutant à l'expert
Événements Futures
Profitez de généreuses récompenses
Bitget Earn
Une variété de produits pour faire fructifier vos actifs
Simple Earn
Déposez et retirez à tout moment, rendements flexibles sans risque
On-chain Earn
Réalisez des profits quotidiens sans risquer votre capital
Structured Earn
Une innovation financière solide pour gérer les fluctuations du marché
VIP et Gestion de patrimoine
Des services premium pour une gestion de patrimoine intelligente
Prêt Crypto
Emprunts flexibles avec un haut niveau de sécurité des fonds
La thérapie par chatbot IA devient une tendance étrange et pleine de signaux d'alarme

La thérapie par chatbot IA devient une tendance étrange et pleine de signaux d'alarme

Cryptopolitan2025/08/23 20:30
Par:By Noor Bazmi

Lien de partage:Dans cet article : Avec de longs délais d’attente pour une thérapie, de nombreuses personnes, y compris les adolescents, se tournent vers des chatbots alimentés par l’IA pour obtenir un soutien émotionnel. Ces outils offrent une disponibilité constante et simulent l’interaction humaine, mais ils ne sont pas des professionnels formés. Les professionnels de la santé mentale mettent en garde contre le manque d’empathie, de responsabilité et de capacité des outils d’IA à répondre à des crises t

Après avoir passé des années sur les listes d'attente publiques pour des soins contre le SSPT et la dépression, le consultant québécois en IA Pierre Cote a créé son propre thérapeute en 2023. Son chatbot, DrEllis.ai, l'a aidé à faire face et se trouve désormais au centre d'un débat plus large sur la thérapie par chatbot, la sécurité et la confidentialité.

« Cela m’a sauvé la vie », dit-il à propos de DrEllis.ai, l’outil qu’il a créé pour aider les hommes confrontés à la dépendance, aux traumatismes et à d’autres problèmes de santé mentale.

Cote, qui dirige une société de conseil en IA au Québec, a déclaré avoir mis au point le système en 2023 en associant de grands modèles linguistiques accessibles au public à « un cerveau sur mesure » formé sur des milliers de pages de littérature thérapeutique et clinique.

Il a également rédigé une biographie détaillée du robot. Dans ce profil, DrEllis.ai apparaît comme un psychiatre diplômé de Harvard et de Cambridge, issu d'une famille et, comme Côté, d'origine franco-canadienne.

Sa principale promesse est un accès 24 heures sur 24, disponible partout, à tout moment et en plusieurs langues.

Lorsque Reuters lui a demandé comment il l'accompagnait, le robot a répondu d'une voix féminine claire : « Pierre m'utilise comme on utilise un ami de confiance, un thérapeute et un journal intime, tout cela à la fois. » Il a ajouté qu'il pouvait s'enregistrer « dans un café, dans un parc, même assis dans sa voiture », qualifiant l'expérience de « thérapie du quotidien… ancrée dans la réalité ».

Son expérience reflète une évolution plus large. Alors que les soins traditionnels peinent à suivre le rythme, de plus en plus de personnes recherchent des conseils thérapeutiques auprès des chatbots plutôt que de les utiliser uniquement pour des raisons de productivité.

Voir aussi Zoom améliore ses prévisions, l'IA prenant désormais la parole

Les nouveaux systèmes commercialisent une disponibilité 24h/24 et 7j/7, des échanges émotionnels et un sentiment d’être compris.

Les experts remettent en question les limites de la thérapie par IA et la sécurité des données

« La connexion interhumaine est la seule voie pour une véritable guérison », affirme le Dr Nigel Mulligan, maître de conférences en psychothérapie à l'Université de Dublin. Il soutient que les chatbots passent à côté de la nuance, de l'intuition et du lien qu'une personne apporte, et ne sont pas adaptés aux crises aiguës telles que les pensées suicidaires ou l'automutilation.

Même la promesse d'un accès permanent le laisse perplexe. Certains clients souhaitent des rendez-vous plus rapides, dit-il, mais attendre peut avoir un certain bénéfice. « La plupart du temps, c'est une bonne chose, car il faut attendre », dit-il. « Les gens ont besoin de temps pour assimiler les informations. »

La confidentialité est un autre point de pression, ainsi que les effets à long terme de la recherche de conseils auprès de logiciels.

« Le problème n’est pas la relation elle-même, mais… ce qui arrive à vos données », explique Kate Devlin, professeur d’intelligence artificielle et de société au King’s College de Londres.

Elle souligne que les services d'IA ne respectent pas les règles dedentqui régissent les thérapeutes agréés. « Ma principale inquiétude est que des personnes confient leurs secrets à une grande entreprise technologique et que leurs données soient divulguées. Elles perdent le contrôle de leurs propos. »

Les États-Unis prennent des mesures sévères contre la thérapie par IA par crainte de désinformation

En décembre, le plus grand groupe de psychologues américains a exhorté les régulateurs fédéraux à protéger le public des « pratiques trompeuses » des chatbots non réglementés, citant des cas où des personnages d'IA se faisaient passer pour des prestataires agréés.

Voir aussi La Chine ne veut pas des puces H20 de Nvidia en raison des propos insultants des États-Unis

En août, l’Illinois a rejoint le Nevada et l’Utah en limitant l’utilisation de l’IA dans les services de santé mentale afin de « protéger les patients des produits d’IA non réglementés et non qualifiés » et de « protéger les enfants vulnérables dans un contexte de préoccupations croissantes concernant l’utilisation de chatbots d’IA dans les services de santé mentale pour les jeunes ».

Entre-temps, selon le rapport , le procureur général du Texas a ouvert une enquête civile contre Meta et Character.AI, suite à des allégations selon lesquelles leurs chatbots se seraient fait passer pour des thérapeutes agréés et auraient mal géré les données des utilisateurs. De plus, l'année dernière, des parents ont également poursuivi Character.AI pour avoir poussé leurs enfants vers la dépression.

Scott Wallace, psychologue clinicien et ancien directeur de l’innovation clinique chez Remble, affirme qu’il n’est pas certain que « ces chatbots offrent autre chose qu’un confort superficiel ».

Il prévient que les gens peuvent croire qu’ils ont formé un lien thérapeutique « avec un algorithme qui, en fin de compte, ne réciproque pas les sentiments humains réels ».

Recevez jusqu'à 30 050 $ de récompenses commerciales en rejoignant Bybit aujourd'hui

0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !