L’intelligence artificielle et les modèles de langage large (LLM) bouleversent de nombreux secteurs, et la MedTech ne fait pas exception. Lors de cette conférence lors de MedTech_IA, découvrez un cas pratique d'application des LLM dans un contexte hospitalier, illustrant les défis, solutions et opportunités liés à leur intégration.
Les LLM, tels que GPT-4 ou LLaMA, sont devenus des outils de pointe pour le traitement automatisé du langage naturel. Toutefois, leur application dans un cadre hospitalier soulève des questions techniques, éthiques et légales. Le CHU de Montpellier s’est lancé dans une preuve de concept innovante : classifier les feedbacks des patients pour optimiser l’organisation interne et améliorer les soins. Cette initiative illustre les défis inhérents à l'adoption des LLM dans des environnements réglementés.
Redécouvrez la conférence tenue par Zeno Loï, lors de la conférence MedTech_IA organisée par Flint et KYomed INNOV.
La gestion des verbatims patients constitue un défi majeur. Ces données proviennent notamment de la plateforme nationale eSATIS et comprennent des feedbacks en texte libre. Au CHU de Montpellier, environ 15 000 verbatims annuels sont collectés, mais non classifiés automatiquement.
Problématique technique :
La classification doit répondre à des exigences de précision, d’exhaustivité et surtout d’explicabilité, une contrainte incontournable dans le secteur hospitalier. Jusqu’à présent, des systèmes basés sur des règles comme les regex dominaient. Bien que performants, ils restent limités face à la diversité et la complexité des retours.
Les enjeux pour les MedTech :
Le projet a comparé plusieurs technologies, allant des approches traditionnelles aux modèles avancés comme GPT-4 et LLaMA. Trois grands défis ont émergé :
Face à ces défis, l’équipe du CHU de Montpellier a développé une méthode innovante combinant deux approches :
Résultats :
En combinant ces deux méthodes dans un pipeline, les hallucinations ont été réduites à un niveau quasi nul (3 sur 12 600 classifications). Les performances (précision : 90 %, recall : 80 %) dépassent même celles des experts humains pour certaines tâches.
Ce projet ouvre la voie à des applications encore plus ambitieuses. À court terme, il s’agira de déployer cette méthodologie à grande échelle, tout en réduisant les coûts en optimisant les modèles (fine-tuning). À long terme, l’objectif est d’appliquer ces principes aux données chaudes des patients, par exemple pour inclure automatiquement des critères de recherche clinique.
Pour la MedTech, cela signifie que l’intégration des LLM dans les systèmes de gestion hospitalière est non seulement faisable, mais potentiellement révolutionnaire. Les entreprises spécialisées en IA et santé ont ici une opportunité unique de collaborer avec les établissements pour co-développer des solutions robustes, explicables et conformes.
Le cas d’usage du CHU de Montpellier illustre parfaitement les potentialités et limites des LLM dans un environnement hospitalier. Grâce à des méthodologies hybrides, il est possible d’atteindre des niveaux de performance inédits tout en respectant les contraintes spécifiques au secteur. Pour les chefs d’entreprise et experts IA, ce projet est un appel à innover dans la MedTech, un domaine où l’intelligence artificielle a un rôle clé à jouer.
Pour approfondir, découvrez d’autres articles sur les technologies IA en santé sur le blog de Flint.