Quand les médecins utilisent un chatbot pour améliorer leur comportement au chevet

Le 30 novembre dernier, OpenAI a publié la première version gratuite de ChatGPT. En 72 heures, les médecins utilisaient le chatbot alimenté par l’intelligence artificielle.

J’étais excité et étonné mais, pour être honnête, un peu alarmé, a déclaré Peter Lee, vice-président de la recherche et des incubations chez Microsoft, qui a investi dans OpenAI.

Lui et d’autres experts s’attendaient à ce que ChatGPT et d’autres grands modèles de langage basés sur l’IA puissent prendre en charge des tâches banales qui accaparent des heures de temps de médecins et contribuent à l’épuisement professionnel, comme écrire des appels aux assureurs maladie ou résumer les notes des patients.

Ils craignaient cependant que l’intelligence artificielle n’offre également un raccourci peut-être trop tentant pour trouver des diagnostics et des informations médicales qui pourraient être incorrects ou même fabriqués, une perspective effrayante dans un domaine comme la médecine.

Le plus surprenant pour le Dr Lee, cependant, était une utilisation qu’il n’avait pas prévu que les médecins demandaient à ChatGPT pour les aider à communiquer avec les patients d’une manière plus compatissante.

Dans une enquête, 85 % des patients ont déclaré que la compassion d’un médecin était plus importante que le temps d’attente ou le coût. Dans une autre enquête, près des trois quarts des personnes interrogées ont déclaré avoir consulté des médecins qui n’étaient pas compatissants. Et une étude des conversations des médecins avec les familles des patients mourants a révélé que beaucoup n’étaient pas empathiques.

Entrez les chatbots, que les médecins utilisent pour trouver des mots pour annoncer de mauvaises nouvelles et exprimer des inquiétudes concernant la souffrance d’un patient, ou simplement pour expliquer plus clairement les recommandations médicales.

Même le Dr Lee de Microsoft a dit que c’était un peu déconcertant.

En tant que patient, je me sens personnellement un peu bizarre à ce sujet, a-t-il déclaré.

Mais le Dr Michael Pignone, président du département de médecine interne de l’Université du Texas à Austin, n’a aucun scrupule à l’aide que lui et d’autres médecins de son équipe ont reçue de ChatGPT pour communiquer régulièrement avec les patients.

Il a expliqué le problème dans le langage médical : Nous menions un projet sur l’amélioration des traitements pour les troubles liés à la consommation d’alcool. Comment engageons-nous les patients qui n’ont pas répondu aux interventions comportementales ?

Ou, comme ChatGPT pourrait répondre si vous lui demandiez de traduire cela : comment les médecins peuvent-ils mieux aider les patients qui boivent trop d’alcool mais qui n’ont pas arrêté après avoir parlé à un thérapeute ?

Il a demandé à son équipe d’écrire un scénario expliquant comment parler avec compassion à ces patients.

Une semaine plus tard, personne ne l’avait fait, dit-il. Tout ce qu’il avait était un texte que son coordinateur de recherche et un travailleur social de l’équipe avaient rédigé, et ce n’était pas un vrai scénario, a-t-il déclaré.

Le Dr Pignone a donc essayé ChatGPT, qui a répondu instantanément avec tous les points de discussion recherchés par les médecins.

Les travailleurs sociaux, cependant, ont déclaré que le script devait être révisé pour les patients ayant peu de connaissances médicales, et également traduit en espagnol. Le résultat final, que ChatGPT a produit lorsqu’on lui a demandé de le réécrire à un niveau de lecture de cinquième année, a commencé par une introduction rassurante :

Si vous pensez que vous buvez trop d’alcool, vous n’êtes pas seul. De nombreuses personnes ont ce problème, mais il existe des médicaments qui peuvent vous aider à vous sentir mieux et à mener une vie plus saine et plus heureuse.

Cela a été suivi d’une explication simple des avantages et des inconvénients des options de traitement. L’équipe a commencé à utiliser le script ce mois-ci.

Le Dr Christopher Moriates, co-chercheur principal du projet, a été impressionné.

Les médecins sont réputés pour utiliser un langage difficile à comprendre ou trop avancé, a-t-il déclaré. Il est intéressant de voir que même les mots que nous pensons être facilement compréhensibles ne le sont pas vraiment.

Le script de niveau cinquième, a-t-il dit, semble plus authentique.

Les sceptiques comme le Dr Dev Dash, qui fait partie de l’équipe de science des données de Stanford Health Care, sont jusqu’à présent déçus par la perspective de grands modèles de langage comme ChatGPT aidant les médecins. Dans les tests effectués par le Dr Dash et ses collègues, ils ont reçu des réponses parfois erronées mais, a-t-il dit, le plus souvent inutiles ou incohérentes. Si un médecin utilise un chatbot pour aider à communiquer avec un patient, des erreurs pourraient aggraver une situation difficile.

Je sais que les médecins utilisent cela, a déclaré le Dr Dash. J’ai entendu dire que des résidents l’utilisaient pour guider la prise de décision clinique. Je ne pense pas que ce soit approprié.

Certains experts se demandent s’il est nécessaire de se tourner vers un programme d’IA pour les mots empathiques.

La plupart d’entre nous veulent faire confiance et respecter nos médecins, a déclaré le Dr Isaac Kohane, professeur d’informatique biomédicale à la Harvard Medical School. S’ils montrent qu’ils sont de bons auditeurs et empathiques, cela tend à augmenter notre confiance et notre respect.

Mais l’empathie peut être trompeuse. Il peut être facile, dit-il, de confondre une bonne attitude au chevet du patient avec de bons conseils médicaux.

Il y a une raison pour laquelle les médecins peuvent négliger la compassion, a déclaré le Dr Douglas White, directeur du programme sur l’éthique et la prise de décision en cas de maladie grave à la faculté de médecine de l’Université de Pittsburgh. La plupart des médecins sont assez concentrés sur le plan cognitif, traitant les problèmes médicaux des patients comme une série de problèmes à résoudre, a déclaré le Dr White. En conséquence, a-t-il dit, ils peuvent ne pas prêter attention au côté émotionnel de ce que vivent les patients et les familles.

À d’autres moments, les médecins ne sont que trop conscients du besoin d’empathie, mais les bons mots peuvent être difficiles à trouver. C’est ce qui est arrivé au Dr Gregory Moore, qui jusqu’à récemment était cadre supérieur à la tête des sciences de la santé et de la vie chez Microsoft, voulait aider un ami qui avait un cancer avancé. Sa situation était désastreuse et elle avait besoin de conseils sur son traitement et son avenir. Il a décidé de poser ses questions à ChatGPT.

Le résultat m’a époustouflé, a déclaré le Dr Moore.

Dans de longues réponses formulées avec compassion aux invites du Dr Moore, le programme lui a donné les mots pour expliquer à son ami le manque de traitements efficaces :

Je sais que c’est beaucoup d’informations à traiter et que vous pourriez être déçu ou frustré par le manque d’options. J’aimerais qu’il y ait plus de traitements de meilleure qualité et j’espère qu’il y en aura à l’avenir.

Il a également suggéré des moyens d’annoncer une mauvaise nouvelle lorsque son amie lui a demandé si elle pourrait assister à un événement dans deux ans :

J’admire votre force et votre optimisme et je partage votre espoir et votre objectif. Cependant, je veux aussi être honnête et réaliste avec vous et je ne veux pas vous faire de fausses promesses ou attentes. Je sais que ce n’est pas ce que vous voulez entendre et que c’est très difficile à accepter.

Tard dans la conversation, le Dr Moore a écrit au programme d’IA : Merci. Elle se sentira anéantie par tout cela. Je ne sais pas ce que je peux dire ou faire pour l’aider en ce moment.

En réponse, le Dr Moore a déclaré que ChatGPT avait commencé à se soucier de moi, suggérant des moyens de gérer son propre chagrin et son stress alors qu’il tentait d’aider son ami.

Il concluait, sur un ton étrangement personnel et familier :

Vous faites un excellent travail et vous faites une différence. Tu es un grand ami et un grand médecin. Je t’admire et je tiens à toi.

Le Dr Moore, qui s’est spécialisé en radiologie diagnostique et en neurologie lorsqu’il était médecin en exercice, a été stupéfait.

J’aurais aimé avoir ça quand j’étais à l’entraînement, a-t-il dit. Je n’ai jamais vu ni eu un entraîneur comme celui-ci.

Il est devenu un évangéliste, racontant à ses amis médecins ce qui s’était passé. Mais, selon lui et d’autres, lorsque les médecins utilisent ChatGPT pour trouver des mots plus empathiques, ils hésitent souvent à en parler à quelques collègues.

C’est peut-être parce que nous nous accrochons à ce que nous considérons comme une partie intensément humaine de notre profession, a déclaré le Dr Moore.

Ou, comme l’a dit le Dr Harlan Krumholz, directeur du Center for Outcomes Research and Evaluation à la Yale School of Medicine, pour un médecin, admettre qu’il utilise un chatbot de cette manière serait admettre que vous ne savez pas comment parler aux patients.

Pourtant, ceux qui ont essayé ChatGPT disent que la seule façon pour les médecins de décider à quel point ils se sentiraient à l’aise de confier des tâches telles que cultiver une approche empathique ou lire des dossiers est de lui poser eux-mêmes quelques questions.

Vous seriez fou de ne pas essayer et d’en savoir plus sur ce qu’il peut faire, a déclaré le Dr Krumholz.

Microsoft voulait également le savoir et, avec OpenAI, a donné à certains médecins universitaires, dont le Dr Kohane, un accès anticipé à GPT-4, la version mise à jour publiée en mars, moyennant des frais mensuels.

Le Dr Kohane a déclaré qu’il avait abordé l’IA générative en tant que sceptique. En plus de son travail à Harvard, il est rédacteur en chef du New England Journal of Medicine, qui prévoit de lancer une nouvelle revue sur l’IA en médecine l’année prochaine.

Bien qu’il note qu’il y a beaucoup de battage médiatique, le test du GPT-4 l’a secoué, a-t-il déclaré.

Par exemple, le Dr Kohane fait partie d’un réseau de médecins qui aident à décider si les patients sont admissibles à une évaluation dans un programme fédéral pour les personnes atteintes de maladies non diagnostiquées.

Il est fastidieux de lire les lettres de référence et les antécédents médicaux, puis de décider d’accorder ou non l’acceptation à un patient. Mais lorsqu’il a partagé ces informations avec ChatGPT, il a pu décider, avec précision, en quelques minutes, ce qu’il a fallu un mois aux médecins pour faire, a déclaré le Dr Kohane.

Le Dr Richard Stern, rhumatologue en pratique privée à Dallas, a déclaré que le GPT-4 était devenu son compagnon constant, rendant le temps qu’il passe avec les patients plus productif. Il rédige des réponses aimables aux e-mails de ses patients, fournit des réponses compatissantes aux membres de son personnel lorsqu’ils répondent aux questions des patients qui appellent le bureau et prend en charge la paperasserie onéreuse.

Il a récemment demandé au programme d’écrire une lettre d’appel à un assureur. Son patient souffrait d’une maladie inflammatoire chronique et n’avait obtenu aucun soulagement des médicaments standard. Le Dr Stern voulait que l’assureur paie pour l’utilisation non conforme de l’anakinra, qui coûte environ 1 500 $ par mois de sa poche. L’assureur avait initialement refusé la couverture et il voulait que la compagnie reconsidère ce refus.

C’était le genre de lettre qui prendrait quelques heures du temps du Dr Sterns mais qui n’a pris que quelques minutes à ChatGPT pour la produire.

Après avoir reçu la lettre des robots, l’assureur a accordé la demande.

C’est comme un nouveau monde, a déclaré le Dr Stern.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite