L’IA peut-elle traiter les maladies mentales ?

Avant une autre visite de patient, se souvient Maria, je sentais juste que quelque chose de vraiment mauvais allait se produire. Elle a envoyé un texto à Woebot, qui expliquait le concept de pensée catastrophique. Il peut être utile de se préparer au pire, a déclaré Woebot, mais cette préparation peut aller trop loin. Cela m’a aidé à nommer cette chose que je fais tout le temps, a déclaré Maria. Elle a trouvé Woebot si bénéfique qu’elle a commencé à consulter un thérapeute humain.

Woebot est l’un des nombreux chatbots téléphoniques à succès, certains visant spécifiquement la santé mentale, d’autres conçus pour offrir du divertissement, du confort ou une conversation sympathique. Aujourd’hui, des millions de personnes parlent à des programmes et à des applications telles que Happify, qui encourage les utilisateurs à briser les anciens schémas, et Replika, un compagnon d’IA qui est toujours à vos côtés, servant d’ami, de mentor ou même de partenaire romantique. Les mondes de la psychiatrie, de la thérapie, de l’informatique et de la technologie grand public convergent : de plus en plus, nous nous calmons avec nos appareils, tandis que les programmeurs, les psychiatres et les fondateurs de startups conçoivent des systèmes d’IA qui analysent les dossiers médicaux et les séances de thérapie dans l’espoir de diagnostiquer, traiter, et même prédire la maladie mentale. En 2021, les startups numériques axées sur la santé mentale ont obtenu plus de cinq milliards de dollars en capital-risque, soit plus du double de tout autre problème médical.

L’ampleur des investissements reflète l’ampleur du problème. Environ un adulte américain sur cinq souffre d’une maladie mentale. On estime qu’une personne sur vingt souffre de ce qui est considéré comme une maladie mentale grave. Des médicaments vieux de plusieurs décennies tels que le Prozac et le Xanax, autrefois présentés comme des antidotes révolutionnaires à la dépression et à l’anxiété, se sont révélés moins efficaces que beaucoup ne l’avaient espéré ; les soins restent fragmentés, tardifs et inadéquats ; et le fardeau global de la maladie mentale aux États-Unis, mesuré par les années perdues à cause de l’invalidité, semble avoir augmenté. Les taux de suicide ont chuté dans le monde depuis les années 1990, mais en Amérique, ils ont augmenté d’environ un tiers. Les soins de santé mentale sont une merde, m’a dit Thomas Insel, ancien directeur de l’Institut national de la santé mentale. Personne n’aime ce qu’ils obtiennent. Personne n’est content de ce qu’il donne. C’est un gâchis complet. Depuis qu’il a quitté le NIMH en 2015, Insel a travaillé dans une série d’entreprises de santé mentale numérique.

Le traitement de la maladie mentale nécessite de l’imagination, de la perspicacité et des traits d’empathie que l’IA ne peut que prétendre avoir. Et pourtant, Eliza, que Weizenbaum a nommée d’après Eliza Doolittle, l’héroïne fausse jusqu’à ce que vous le fassiez de George Bernard Shaws Pygmalion, a créé une illusion thérapeutique malgré l’absence de mémoire et de puissance de traitement, écrit Christian. Que pourrait évoquer un système comme OpenAIs ChatGPT, qui a été formé sur de vastes pans de l’écriture sur Internet ? Un algorithme qui analyse les dossiers des patients n’a aucune compréhension intérieure de l’être humain, mais il pourrait encore identifier de vrais problèmes psychiatriques. Les esprits artificiels peuvent-ils guérir les vrais ? Et qu’avons-nous à gagner ou à perdre en les laissant essayer ?

John Pestian, un informaticien spécialisé dans l’analyse des données médicales, a commencé à utiliser l’apprentissage automatique pour étudier la maladie mentale dans les deux mille ans, lorsqu’il a rejoint la faculté du Cincinnati Childrens Hospital Medical Center. Aux études supérieures, il avait construit des modèles statistiques pour améliorer les soins aux patients subissant une chirurgie de pontage cardiaque. À Cincinnati Childrens, qui exploite le plus grand établissement psychiatrique pédiatrique du pays, il a été choqué par le nombre de jeunes qui sont entrés après avoir tenté de mettre fin à leurs jours. Il voulait savoir si les ordinateurs pouvaient déterminer qui risquait de s’automutiler.

Pestian a contacté Edwin Shneidman, un psychologue clinicien qui a fondé l’American Association of Suicidology. Shneidman lui a donné des centaines de notes de suicide que les familles avaient partagées avec lui, et Pestian a élargi la collection dans ce qu’il croit être le plus grand au monde. Au cours d’une de nos conversations, il m’a montré une note écrite par une jeune femme. D’un côté, il y avait un message de colère à son petit ami, et de l’autre, elle s’adressait à ses parents : Papa, s’il te plaît, dépêche-toi de rentrer. Maman, je suis si fatiguée. Veuillez me pardonner pour tout. En étudiant les notes de suicide, Pestian a remarqué des modèles. Les déclarations les plus courantes n’étaient pas des expressions de culpabilité, de chagrin ou de colère, mais des instructions : assurez-vous que votre frère rembourse l’argent que je lui ai prêté ; la voiture est presque en panne d’essence ; Attention, il y a du cyanure dans la salle de bain. Lui et ses collègues ont introduit les notes dans un modèle de langage, un système d’IA qui apprend quels mots et phrases ont tendance à aller ensemble, puis a testé sa capacité à reconnaître les idées suicidaires dans les déclarations faites par les gens. Les résultats suggèrent qu’un algorithme pourrait identifier le langage du suicide.

Ensuite, Pestian s’est tourné vers les enregistrements audio tirés des visites de patients aux urgences des hôpitaux. Avec ses collègues, il a développé un logiciel pour analyser non seulement les mots prononcés par les gens, mais aussi les sons de leur discours. L’équipe a constaté que les personnes ayant des pensées suicidaires soupiraient plus et riaient moins que les autres. En parlant, ils avaient tendance à s’arrêter plus longtemps et à raccourcir leurs voyelles, rendant les mots moins intelligibles ; leurs voix sonnaient plus haletantes et ils exprimaient plus de colère et moins d’espoir. Dans le plus grand essai de ce type, l’équipe de Pestians a recruté des centaines de patients, enregistré leur discours et utilisé des algorithmes pour les classer comme suicidaires, malades mentaux mais pas suicidaires, ou ni l’un ni l’autre. Environ quatre-vingt-cinq pour cent du temps, son modèle d’IA est arrivé aux mêmes conclusions que les soignants humains, ce qui le rend potentiellement utile pour les cliniciens inexpérimentés, surbookés ou incertains.

Il y a quelques années, Pestian et ses collègues ont utilisé l’algorithme pour créer une application appelée SAM, qui pourraient être employés par des thérapeutes scolaires. Ils l’ont testé dans certaines écoles publiques de Cincinnati. Ben Crotte, alors thérapeute traitant des collégiens et lycéens, a été parmi les premiers à l’essayer. Lorsque j’ai demandé aux étudiants leur consentement, j’ai été très direct, m’a dit Crotte. Je dirais que cette application écoute essentiellement notre conversation, l’enregistre et compare ce que vous dites à ce que d’autres ont dit, pour identifier qui risque de se blesser ou de se tuer.

Un après-midi, Crotte a rencontré un étudiant de première année du secondaire qui souffrait d’anxiété sévère. Au cours de leur conversation, elle s’est demandé si elle voulait continuer à vivre. Si elle était activement suicidaire, alors Crotte avait l’obligation d’informer un superviseur, qui pourrait prendre d’autres mesures, comme recommander qu’elle soit hospitalisée. Après avoir parlé davantage, il a décidé qu’elle n’était pas en danger immédiat, mais l’IA est arrivée à la conclusion opposée. D’un côté, j’ai pensé : « Cette chose marche vraiment si vous veniez de la rencontrer, vous seriez plutôt inquiet », a déclaré Crotte. Mais il y avait toutes ces choses que je savais sur elle et que l’application ne savait pas. La fille n’avait aucun antécédent de blessure, aucun plan précis pour faire quoi que ce soit et une famille qui la soutenait. J’ai demandé à Crotte ce qui aurait pu se passer s’il avait été moins familier avec l’élève, ou moins expérimenté. Cela me ferait certainement hésiter à la laisser quitter mon bureau, m’a-t-il dit. Je me sentirais nerveux au sujet de la responsabilité de celui-ci. Vous avez ce truc qui vous dit que quelqu’un est à haut risque, et vous allez juste le laisser partir ?

La psychiatrie algorithmique implique de nombreuses complexités pratiques. La Veterans Health Administration, une division du ministère des Anciens Combattants, pourrait être le premier grand fournisseur de soins de santé à y faire face. Quelques jours avant Thanksgiving 2005, un spécialiste de l’armée de vingt-deux ans nommé Joshua Omvig est rentré chez lui dans l’Iowa, après un déploiement de onze mois en Irak, montrant des signes de trouble de stress post-traumatique ; un mois plus tard, il se suicide dans son camion. En 2007, le Congrès a adopté la Joshua Omvig Veterans Suicide Prevention Act, la première législation fédérale à lutter contre une épidémie de suicide de longue date chez les anciens combattants. Ses initiatives, une ligne d’assistance téléphonique en cas de crise, une campagne pour déstigmatiser la maladie mentale, une formation obligatoire pour le personnel de l’AV n’étaient pas à la hauteur du problème. Chaque année, des milliers d’anciens combattants meurent par suicide, soit plusieurs fois le nombre de soldats qui meurent au combat. Une équipe qui comprenait John McCarthy, directeur des données et de la surveillance des VA pour la prévention du suicide, a recueilli des informations sur les patients VA, en utilisant des statistiques pour identifier les facteurs de risque possibles de suicide, tels que la douleur chronique, l’itinérance et la dépression. Leurs découvertes ont été partagées avec les soignants VA, mais, entre ces données, l’évolution de la recherche médicale et la quantité de dossiers de patients, les cliniciens en soins devenaient tout simplement surchargés de signaux, m’a dit McCarthy.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite