EPFL

Où l'IA fait une vraie différence

Les modèles linguistiques ne sont souvent rien de plus que des jouets: leurs capacités nous fascinent, mais sont-ils vraiment d’une grande utilité? Un nouveau modèle conçu à l’EPFL illustre le potentiel de chatbots dotés de connaissances médicales pour combler un déficit d’information dramatique en Afrique.
Mary-Anne Hartley illustre le potentiel des chatbots en matière de connaissances médicales pour combler un déficit d'information désastreux en Afrique. (Photo: Kellenberger Photography)

Le rêve ultime? Un chatbot qui apporterait une aide mé dicale aux populations africaines, et ce, dans leur langue. Qu’il s’agisse d’une jeune mère, d’un assistant dans un dispensaire ou d’une enseignante, l’intelligence artificielle (IA) donnerait des conseils sur la base des meilleures connaissances médicales disponibles. C’est ce qu’imagine Mary-Anne Hartley, professeure et directrice du Laboratory for Intelligent Global Health and Humanitarian Response Technologies (LiGHT) à l’EPFL. Cette médecin d’origine sud-africaine a déjà fait un grand pas en direction de ce rêve en collaboration avec des spécialistes de l’IA de l’EPFL. L’équipe a présenté récemment le modèle linguistique Meditron-70B, qui peut répondre aux questions d’examen des études de médecine. Mais le vrai test, il devra le passer dans la pratique.

L'IA au service de la santé, ouverte à tous

L’IA est basée sur les modèles Llama, développés par Meta, la société mère de Facebook. Ce Large Language Model (LLM) est aussi performant que GPT d’OpenAI ou Gemini de Google, mais il possède en plus deux avantages décisifs: il est open source et il est assez petit pour être hébergé dans les hôpitaux ainsi que dans les lieux à faibles ressources. L'équipe Meditron codirigée par le professeur Antoine  Bosselut, responsable du groupe Natural Language Processing à l’EPFL, travaille depuis longtemps déjà sur les LLM pour les applications médicales.

Le défi de l'IA médicale

L’IA et la médecine? La combinaison peut surprendre. Dans notre pays, le contexte médical est en quelque sorte la pièce de résistance en matière d’IA. Et si elle se trompait? On connaît les discussions: les modèles linguistiques «hallucinent», comme on dit dans le jargon. Quand ils ne savent pas quelque chose, ils affabulent, mais le font de manière très plausible. 

M.-A. Hartley et A. Bosselut rappellent que cela arrive aussi aux humains, que nous aussi dissimulons des incertitudes et que, bien sûr, des expertes et experts humains peuvent aussi se tromper. En revanche, l’utilité potentielle est grande si une telle IA peut fournir des informations vitales même en l’absence de soins médicaux bien développés. Construire la confiance dans l’IA fonctionne au fond de la même manière que pour toute autre intervention médicale: tout remède prometteur doit d’abord montrer son efficacité dans des études; et de bonnes valeurs en laboratoire ne signifient pas pour autant un véritable succès dans la pratique médicale quotidienne.

«Moins de 3% des études de la plus grande banque de données médicales, Pubmed, représentent l’Afrique.»      Mary-Anne Hartley, professeure et directrice du Laboratory for Intelligent Global Health and Humanitarian Response Technologies (LiGHT) à l’EPFL

De toute façon, les «contaminations» sont plus décisives que les «hallucinations», fait remarquer M.-A. Hartley. On désigne ainsi les distorsions dans les données avec lesquelles le système travaille. «Moins de 3% des études de la plus grande banque de données médicales, Pubmed, représentent l’Afrique.» Un désastre sachant que l’expertise médicale de Meditron a été formée avec de telles collections d’études. «Si nous ne parvenons pas à représenter le contexte médical non occidental, nous ne pourrons pas construire un système utile pour l’Afrique.» Et comme il n’y a pas le temps d’attendre des «données parfaites», il faut se débrouiller avec des itérations et amener progressivement les système à faire ce qu’il sont censés faire.

Façonner l'IA avec l'aide de l'homme

Il n’y a pas longtemps, chatter avec GPT était plutôt chaotique. Si GPT tient désormais des conversations très civilisées, c’est en partie grâce à une boucle supplémentaire dans le processus d’entraînement, appelée Reinforcement learning from human feedback (RLHF). Des personnes apprennent en quelque sorte les bonnes manières au système en évaluant les réponses. Les chercheuses et chercheurs de l’EPFL ont une approche similaire avec leur modèle linguistique, que M.-A. Hartley appelle nudging.

Les médecins influencent les compétences médicales de l'IA

De nombreux médecins à travers le monde testent l’IA et ses réponses. «Les médecins aiment ce genre de choses, c’est comme un jeu auquel on joue entre collègues dans le cadre d’un processus de mentorat: s’il est possible d’induire en erreur un novice, est-il possible de mettre en avant son manque de connaissance et ensuite de lui enseigner?» C’est ainsi que la machine s’améliore, notamment en ce qui concerne les conditions médicales particulières, loin des questions typiques d’examen des universités occidentales.

«Nous ne voulions pas simplement construire un modèle et publier de superbes résultats. Nous voulions aller au-delà, dans la pratique.»      Mary-Anne Hartley, professeure et directrice du Laboratory for Intelligent Global Health and Humanitarian Response Technologies (LiGHT) à l’EPFL

M.-A. Hartley et A. Bosselut soulignent qu’un tel modèle ne peut sans doute être développé que dans un cadre académique. Et «peut-être seulement à l’EPFL», selon la scientifique, grâce aux ressources techniques, au savoir-faire et aux collaborations avec les hôpitaux univer sitaires des environs tels que le CHUV. Pour les premiers modèles linguistiques spécialisés dans la médecine, A. Bosselut pensait avant tout aux hôpitaux de nos régions ou aux entreprises pharmaceutiques, en bref: «à des gens qui peuvent payer beaucoup pour ce genre de chose.» Ce n’est qu’avec M.-A. Hartley que s’est opéré le glissement vers le low resource context, vers «les uti lisatrices et les utilisateurs, qui me tiennent beaucoup plus à cœur». Et elle ajoute: «Nous ne voulions pas simplement construire un modèle et publier de superbes résultats. Nous voulions aller au-delà, dans la pratique. C’est la preuve la plus difficile que l’on puisse obtenir.» L’équipe de l’EPFL va maintenant lancer  un essai clinique à grande échelle dans plusieurs pays d’Afrique dans le but d’améliorer ces modèles dans le monde réel.