5 façons de combattre les hallucinations de l’IA et de vaincre les faux positifs
Robot humanoïde IA pensant analysant l’écran d’hologramme montrant le concept d’analyse de données volumineuses à l’aide … [+]
Lorsque nous parlons d’intelligence artificielle, nous faisons référence à ses nombreux avantages : elle accélère les flux de travail, fait gagner du temps et génère de meilleurs revenus dans divers domaines. Ce n’est en aucun cas faux. L’IA génère des résultats positifs comme jamais auparavant, mais l’histoire ne s’arrête pas là. Il a aussi un mauvais côté, celui des hallucinations et des dérapages de temps en temps.
Lorsqu’une personne utilisant une plateforme d’IA commence à voir des choses qui n’ont aucun lien avec la réalité ou les faits, il s’agit d’une hallucination. Après une étude et des recherches approfondies sur le sujet, on peut relier les points pour comprendre ce qu’est une hallucination et comment y faire face. Mais le phénomène continue de nuire aux modèles et d’affecter leur adoption, en particulier dans les secteurs fortement réglementés comme la santé.
En conséquence, malgré tout le potentiel de l’IA pour améliorer les soins médicaux et réduire l’épuisement professionnel chez les professionnels de santé, elle reste hors de portée pour beaucoup.
L’adoption de l’IA bloquée par des hallucinations
Aujourd’hui, les professionnels de la santé de nombreux pays utilisent des plateformes d’IA comme OpenAI ChatGPT et Anthropics Claude pour analyser de vastes ensembles de données collectées au fil des ans, accélérer la prise de décision et améliorer la précision des diagnostics. Les modèles linguistiques qui alimentent ces chatbots peuvent non seulement traiter des analyses et des rapports médicaux, mais également faciliter la recherche médicale, permettant aux professionnels de rechercher et de comprendre facilement tous les documents de connaissances. Certains prestataires de soins de santé se sont associés exclusivement à des sociétés d’IA pour simplifier l’accès tout en se concentrant sur la confidentialité et le contrôle des données, tandis que d’autres ne font qu’effleurer la surface avec les produits gratuits proposés.
Mais à mesure que ces produits font leur apparition dans les établissements de soins de santé, nombreux sont ceux qui sonnent l’alarme quant aux problèmes qu’ils peuvent entraîner. La plus grande préoccupation est le risque d’hallucinations, où le modèle peut fournir des informations incorrectes, conduisant finalement à de mauvaises décisions et à de mauvais résultats médicaux.
Selon GPT-3.5, l’un des modèles qui alimentent ChatGPT, les hallucinations peuvent être définies comme la génération de contenu qui n’est pas basé sur des données réelles ou existantes, mais qui est plutôt produit par une extrapolation de modèles d’apprentissage automatique ou une interprétation créative des données.
Si elles sont ignorées, les hallucinations peuvent avoir des conséquences dramatiques sur le secteur de la santé dans le monde entier. En fait, les professionnels de santé du monde entier le signalent déjà parmi les différents pièges liés à une utilisation sans entrave de l’IA générative.
Par exemple, dans un récent éditorial pour Journal Cureus des sciences médicales, les auteurs ont discuté de cas de désinformation générée par l’IA, notamment la production d’articles de recherche avec de faux titres et des citations incorrectes d’articles PubMed lorsqu’on leur a posé des questions sur des conditions médicales spécifiques. Ce contenu, s’il était publié, aurait facilement pu conduire des individus sans méfiance à des traitements et à des décisions incorrects.
Dans une interview connexe sur CBS News’ 60 minutes, les développeurs de Google se sont également exprimés à ce sujet, reconnaissant que même si leur IA, Gemini, peut produire du contenu apparemment réaliste, comme des titres de livres, ces créations peuvent être inexactes et ne pas être basées sur des références réelles. Ils ont qualifié ces lacunes d’« erreurs en toute confiance » et ont souligné la nécessité de faire preuve de prudence et d’examen minutieux lorsqu’on s’appuie sur les informations générées par l’IA.
Comment lutter contre les hallucinations de l’IA ?
Les stratégies suivantes peuvent aider à atténuer les hallucinations de l’IA, garantissant ainsi des résultats fiables et dignes de confiance.
- Assurer la surveillance humaine : Notre compréhension des hallucinations, développées au cours des dernières années, soulignent la nécessité d’une contribution humaine et d’une surveillance rigoureuse lors de la construction ou de l’utilisation de l’IA à des fins médicales. Plutôt que de se fier aveuglément aux informations offertes par l’IA générative, l’implication des humains permet de garantir que les informations sont exactes et fiables. Cela garantit que nous sommes en mesure de profiter de tous les avantages offerts par l’IA sans nous soucier des hallucinations et de la génération d’informations trompeuses.
- Utiliser les outils d’observabilité de l’IA : L’utilisation de l’écosystème croissant d’outils d’observabilité sur le marché peut faciliter les efforts de surveillance de l’IA. Ces outils peuvent aider à détecter les anomalies, à diagnostiquer les problèmes et à garantir que les modèles d’IA fonctionnent comme prévu, en offrant transparence et informations sur leurs processus décisionnels.
- Promouvoir l’éducation et la sensibilisation : Les organisations devraient s’efforcer de développer l’éducation et la sensibilisation aux progrès de l’IA, y compris les hallucinations et leur évolution. De cette façon, les professionnels auront une bonne idée de ce qui se passe et garderont une longueur d’avance pour y faire face. De plus, les établissements d’enseignement médical devraient également commencer à proposer l’IA dans les cours de santé. Cela peut préparer les futurs médecins et autres membres du personnel médical à relever les défis liés à la désinformation alimentée par l’IA. S’ils rencontrent des informations extraites à l’aide de l’IA générative, ils sauront comment les vérifier rapidement auprès de sources fiables évaluées par des pairs pour éviter tout incident fâcheux.
- Améliorez la précision des données : Les organisations développant l’IA devraient se concentrer sur l’amélioration de la précision de leurs sources de données. Après tout, la qualité des modèles d’IA générative dépend des données sur lesquelles ils sont formés, faisant office de perroquets de haute technologie.
- Favoriser la collaboration et la diversité : Les cliniciens et les experts en IA doivent collaborer de manière continue. Ils devraient également plaider en faveur d’ensembles de données plus diversifiés et représentatifs qui refléteraient mieux la population générale, éliminant ainsi les cas de biais et augmentant la fiabilité. Cette approche synergique améliorera les résultats, renforcera la prise de décision partagée et garantira que l’IA complète l’expertise humaine de la meilleure façon possible.
Dans l’ensemble, chaque acteur du secteur doit reconnaître que l’IA n’est qu’un outil destiné à faciliter les choses. Il ne faut pas le considérer comme un remplacement complet. La technologie, même si elle est très utile, ne possède toujours pas les qualités humaines d’empathie, d’autorité et d’éthique qui sont essentielles au succès des systèmes de santé. Il devrait toujours y avoir une synergie entre l’IA et les humains pour lutter contre les dangers des hallucinations.
Le potentiel de l’IA, notamment dans le domaine de la santé, est passionnant et préoccupant. Ces technologies offrent des possibilités qui n’existaient pas auparavant. Pourtant, ils soulèvent également des questions valables : que faire face à la désinformation qu’ils sont connus pour présenter ? Ou comment maximiser la sécurité des patients ? Les modèles de langage non restreints, tels que ChatGPT, Gemini, etc., peuvent générer des résultats inexacts, mettant ainsi les patients en danger. Ceux-ci en sont encore à leur stade embryonnaire, et il faudra du temps et de la collaboration pour les rendre véritablement fiables et utilisables sans surveillance.
Ce que les professionnels de la santé doivent faire maintenant, c’est adopter un comportement responsable lorsqu’ils utilisent l’IA dans leurs recherches et autres tâches. S’ils le font, ils peuvent utiliser l’IA pour libérer le véritable potentiel de ces systèmes tout en protégeant les patients et en garantissant leur bien-être.