Tech

On a discuté avec ces gens qui considèrent ChatGPT comme leur psy

Les expert·es en santé mentale craignent que le coût élevé des soins de santé incite encore davantage de personnes à se confier au chatbot d’OpenAI, un outil qui reproduit souvent des préjugés néfastes.
A woman in a dark room looks at the glowing screen of laptop
Getty Images

Dan, ambulancier de 37 ans vivant au New Jersey, a commencé à utiliser ChatGPT en février pour écrire des récits. S’il était enthousiasmé par le potentiel créatif de l’outil OpenAI pour rédiger de la fiction, ses propres expériences et luttes dans la vie réelle ont finalement commencé à faire leur bout de chemin dans les conversations qu’il entretenait avec le chatbot.

Son thérapeute, qui l’aidait à résoudre divers problèmes liés à des traumatismes complexes et au stress professionnel, lui avait suggéré de changer son point de vue sur les événements qui le bouleversaient, une technique connue sous le nom de recadrage cognitif. « J’étais pas doué pour ça. Je veux dire, comment imaginer que les choses se sont passées différemment alors que je suis toujours en colère ? Comment prétendre que j’ai pas été lésé et abusé ? » a déclaré Dan à VICE.

Publicité

Mais d’après lui, ChatGPT a été en mesure de le faire à la perfection, lui fournissant des réponses que son thérapeute ne pouvait apparemment pas lui donner. Utiliser ce robot dans le cadre thérapeutique était pour lui une solution qui n’impliquait aucun enjeu, tout en étant totalement gratuite et disponible à toute heure depuis le confort de son domicile. Il admet toutefois être parfois resté éveillé jusqu’à 4 heures du matin afin de confier ses problèmes au chatbot. Une habitude qui aurait inquiété sa femme, car il « parlait à un ordinateur au lieu de partager son ressenti et ses préoccupations » avec elle.

VICE a accepté d’évoquer plusieurs sources présentes dans cet article par un pseudonyme afin qu’elles puissent parler librement de leurs expériences d’utilisation de ChatGPT dans le cadre d’une thérapie.

Les grands modèles de langage, tels que ChatGPT d’OpenAI ou Google Bard, ont récemment fait l’objet d’un regain d’intérêt pour leur potentiel thérapeutique, vanté sans surprise par les influencers utopistes de la Big Tech comme capable de fournir des « soins de santé mentale pour tou·tes ». À l’aide du filtrage par motif et de la collecte de données, ces modèles d’IA produisent un discours semblable à celui des humains, suffisamment crédible pour convaincre certaines personnes qu’il peut constituer une forme de soutien en matière de santé mentale. En conséquence, les réseaux sociaux regorgent d’anecdotes et de publications d’individus affirmant avoir commencé à utiliser ChatGPT comme thérapeute.

Publicité

En janvier dernier, Koko, une application de santé mentale basée à San Francisco et cofondée par Robert Morris, a d’ailleurs été vivement critiquée. Elle a en effet révélé avoir remplacé ses travailleur·ses bénévoles habituel·les par une technologie assistée par le GPT-3 pour environ 4 000 utilisateur·ices. Selon Robert Morris, les utilisateur·ices ne pouvaient pas faire la différence, certain·es jugeant les performances de l’application supérieures à celles des réponses humaines. En Belgique, une femme a déclaré à la presse que son mari s’était suicidé après qu’un chatbot d’IA l’eut encouragé à le faire.

Dans un contexte de demande croissante de soins de santé mentale et de manque de financement et d’infrastructure pour des options de soins équitables, une solution abordable et évolutive à l’infini comme ChatGPT semble évidemment être une bonne nouvelle. Mais l’industrie de la santé mentale est souvent prompte à proposer des solutions qui ne tiennent pas compte des intérêts des patient·es.

Les applications financées par le capital-risque et la Silicon Valley, telles que Youper et BetterHelp, posent des problèmes de confidentialité et de surveillance des données, qui affectent de manière disproportionnée les communautés BIPOC (l’acronyme BIPOC signifie « Black, indigenous and people of color », faisant donc référence aux Noir·es, Autochtones et personnes de couleur) et celles issues de la classe ouvrière, tout en ignorant les raisons plus systémiques derrière la détresse des gens.

Publicité

« Ils font ça pour accéder aux personnes que la société a poussées en marge, mais [nous devons] regarder où l’argent va circuler », a déclaré à VICE Tim Reierson, un lanceur d’alerte de Crisis Text Line qui a été licencié après avoir révélé les pratiques douteuses de l’organisation en matière de monétisation et d’éthique des données.

En 1966, le scientifique germano-américain Joseph Weizenbaum a mené une expérience au MIT. ELIZA, connu aujourd’hui comme le premier chatbot thérapeutique au monde, a été initialement créé pour parodier les thérapeutes, reproduisant leurs discours ouverts (souvent frustrants) à l’aide d’un programme de traitement du langage naturel. Alors qu’il était censé révéler la « superficialité » de l’interaction entre l’homme et l’ordinateur, les utilisateur·ices l’ont adoré.

Le rôle de la technologie dans la relation patient-thérapeute est presque aussi ancien que l’histoire de la thérapie elle-même, comme l’explore Hannah Zeavin dans son livre The Distance Cure. Et, comme elle le souligne, les personnes à faible revenu ont longtemps cherché à trouver un soutien mental qui n’impliquerait pas les longues listes d’attente, trajets et coûts habituels des soins prodigués en cabinet, et ce grâce aux lignes d’écoute téléphonique et aux émissions de radio.

Publicité

Mais toutes les téléthérapies ne se valent pas. À l’heure actuelle, on ne sait pas quelle place va trouver ChatGPT dans l’avenir des soins de santé mentale, comment l’OpenAI répondra à ses problèmes écrasants en matière de confidentialité des données et dans quelle mesure il est réellement adapté pour aider les personnes en détresse.

Néanmoins, avec l’augmentation des coûts des soins de santé et les gros titres des journaux vantant les capacités des modèles de langage de l’IA, de nombreuses personnes se sont, en dernier recours, tournées vers des outils qui n’ont pas encore fait leurs preuves, comme ChatGPT.

Gillian, une assistante de direction de 27 ans basée à Washington, a commencé à utiliser ChatGPT il y a un mois pour l’aider à surmonter son chagrin. Si elle ne pouvait plus continuer sa thérapie en présentiel, c’était à cause du prix élevé et du manque de prise en charge financière de son assurance. « Même si j’ai reçu d’excellents conseils de la part de ChatGPT, je ne me suis pas sentie nécessairement réconfortée. Son langage est fleuri, mais vide, a-t-elle déclaré à VICE. Pour l’instant, je ne pense pas qu’il puisse saisir toutes les nuances propres à une séance de thérapie. »

Ce type d’expériences a conduit certaines personnes à « jailbreaker » (ou « débrider ») ChatGPT spécifiquement pour administrer une thérapie qui semble moins guindée, plus amicale et plus humaine.

Publicité

La plupart des gens considèrent cependant ces chatbots d’IA comme des outils à même de compléter la thérapie, mais non comme son équivalent légitime. Dan a par exemple déclaré que l’IA pourrait être utile pour gérer les situations d’urgence ou de crise. « L’IA est un outil extraordinaire, et je pense qu’elle pourrait sérieusement aider beaucoup de gens en éliminant les barrières de la disponibilité, du coût et de la fierté de la thérapie. Mais pour l’instant, il s’agit surtout d’un pansement et non d’un substitut complet. Toutefois, en tant qu’aide complémentaire ou en cas d’urgence, ça pourrait être l’outil idéal pour sortir quelqu’un d’une mauvaise passe. »

Jacqueline Nesi, psychologue et professeure adjointe à l’université Brown, étudie le rôle des réseaux sociaux sur la santé mentale et le développement des adolescents. Elle a alerté sur le fait que ChatGPT ne devait pas être utilisé pour donner des conseils médicaux ou prodiguer des diagnostics professionnels. Elle a parallèlement fait remarquer que l’utilisation du chatbot à des fins thérapeutiques pourrait entraîner la perte de « l’alliance thérapeutique », c’est-à-dire la relation de confiance positive qui se construit entre les thérapeutes et les patient·es.

« Même si l’utilisateur peut avoir l’impression d’entretenir une relation thérapeutique avec ChatGPT, il y a probablement quelque chose qui se perd lorsqu’il n’y a pas de véritable personne de l’autre côté », a-t-elle déclaré à VICE.

Publicité

Cette perte d’intimité est également entre les mains des ingénieur·es en IA et des personnes qui la financent. Car ChatGPT traite encore mal les informations ambiguës, recourant assez facilement (et dangereusement) à des suppositions biaisées et discriminatoires, ce qui peut briser la confiance qu’ont les utilisateur·ices envers l’outil. En mars, le Distributed AI Research Institute (DAIR) a publié une déclaration avertissant que l’IA synthétique « reproduit des systèmes d’oppression et met en danger notre écosystème d’information ». Un article récent de Jessica Hamzelou dans la MIT Technology Review a également révélé que les systèmes d’IA dans le domaine de la santé étaient enclins à appliquer le paternalisme médical, ignorant les besoins de leurs patient·es.

« Je pense que les communautés marginalisées, y compris les populations rurales, sont les plus susceptibles de rencontrer des difficultés pour accéder aux soins, et donc les plus susceptibles de se tourner vers ChatGPT pour répondre à leurs besoins, du moins si elles ont accès à la technologie en premier lieu », a déclaré Jessica Gold, psychiatre à l’Université de Washington à St Louis. « Par conséquent, les patient·es se dirigent vers ce la solution la plus facile et rapide. »

Publicité

Pour les communautés à la recherche de soins de santé mentale, cette situation peut devenir une arme à double tranchant : l’utilisation de ChatGPT est peut-être plus accessible, mais au prix d’une responsabilité et d’un contrôle de qualité bien plus réduits.

Selon le Dr Amanda Calhoun, experte des effets du racisme sur la santé mentale dans le domaine médical, la qualité de la thérapie ChatGPT par rapport à la thérapie IRL dépend de ce sur quoi elle est modelée. « Si la thérapie ChatGPT continue de s’appuyer sur les bases de données existantes, qui sont centrées sur les Blanc·es, alors non, a-t-elle déclaré à VICE. Mais que se passerait-il si ChatGPT était “formé” à l’aide d’une base de données et d’un système créés par des professionnel·les de la santé mentale noir·es, expert·es en ce qui concerne les conséquences du racisme anti-noir ? Ou des expert·es en santé mentale transgenres ? »

Tou·tes les expert·es en santé mentale avec qui nous avons discuté ont déclaré que même si l’utilisation de ChatGPT en guise de thérapie pouvait mettre en péril la vie privée des gens, c’était toujours mieux que rien, révélant par-là une industrie des soins de santé mentale largement en crise. Selon Emma Dowling, auteur de The Care Crisis, l’utilisation de ChatGPT comme thérapie est un exemple de « solution de soins » – une externalisation des soins vers des applications, des manuels de self-care, des robots et des corporatistes.

Avec la récente release de GPT-4, OpenAI a déclaré avoir travaillé avec « 50 expert·es dans des domaines tels que les risques d’alignement de l’IA, la cybersécurité, les risques biologiques, la confiance et la sécurité » afin d’améliorer la sécurité de l’outil, mais on ne sait pas encore comment tout ça sera mis en œuvre, le cas échéant, pour les personnes qui recherchent une aide mentale.

VICE Belgique est sur Instagram et Facebook.