Comment on évalue(ra) – ou pas – un dispositif médical (DM) avec l’IA.

Lors d’un colloque du Conseil d’État consacré à la révolution de l’IA en santé, le Pr Dominique Le Guludec, alors présidente de la Haute Autorité de santé (HAS) rappelait, en 2023, que l’évaluation d’un outil numérique est « forcément très différente » de celle d’un médicament ou d’un dispositif médical (DM) classique*. Au final, seuls les DM qui présentent une certaine catégorie de risque pour le patient d’une part (principalement des DM implantables utilisés à l’hôpital), et ceux qui sont remboursés par l’Assurance maladie d’autre part, sont évalués par la HAS. « Donc très peu le sont », observait-elle.

* Rappelons qu’un outil d’e-santé peut avoir le statut de DM, ce statut étant défini par sa destination d’usage et l’exploitation de données entrantes, selon les documents de référence de l’ANSM.

La HAS pragmatique

Les premiers DM intégrant de l’IA dans leur conception, étudiés par la HAS, ont concerné 
la diabétologie. 
Au fil de leur apparition, la HAS a construit une classification d’usage et une grille d’analyse pour guider les industriels dans les données à fournir pour une future évaluation, sans entrer dans les algorithmes. « Tout ce que nous évaluons, c’est la pertinence clinique », précisait-elle, faisant un constat net : aujourd’hui, la plupart de ces outils numériques avec IA sont à usage professionnel et ne sont donc pas évalués en dehors du marquage CE. « Quant aux objets connectés, ils ne sont pas sujets à évaluation », rappelait-elle, tout en exprimant la conviction qu’il faudrait graduer ces dispositifs : non-évaluation de certains, référentiel pour d’autres, label pour quelques-uns, évaluation en bonne et due forme pour les plus sensibles. Aujourd’hui, ces objets connectés arborent, pour la plupart, un simple marquage CE.

Règlement européen sur l’IA, marquage CE et garantie humaine

« Pour obtenir ce marquage CE, un dispositif doté d’un système d’IA devra faire preuve, à l’avenir, d’une conformité “IA Act/garantie humaine” », explique David Gruson (Ethik-IA). Pour un système auto-apprenant qui nécessite une actualisation du marquage, un système de garantie humaine sera facilitateur. Il s’agira d’un critère facilitant l’admission au remboursement, selon les guidelines publiées par la HAS à l’automne 2020.

Mais il faut encore faire ici une distinction entre évaluation médicale et scientifique et garantie humaine de l’IA. Pour être conforme au règlement européen sur l’IA, « un écosystème de garantie humaine vise principalement à donner un niveau d’assurance suffisant sur le fait que le système d’IA ne tournera pas tout seul, complète-t-il. Mais cela ne se substitue pas aux études cliniques et précliniques à monter dans le dossier de marquage CE et à actualiser le cas échéant. Néanmoins, ces dispositifs de supervision humaine peuvent donner une indication des résultats produits par le système ».

Pour l’instant, deux règlements « dépassés »

Jusqu’à l’entrée en vigueur du règlement européen sur l’IA (voir article "Règlement européen sur l'IA : première réglementation au monde des usages d'IA"), les DM intégrant de l’IA sont soumis aux règlements relatifs aux dispositifs médicaux (RDM [UE] 2017/745) et aux DM de diagnostic in vitro (RDMDIV [UE] 2017/746). Mais ces derniers n’ont pas d’exigence pour que les modèles soient interprétables et explicables, ni sur l’ouverture des « boîtes noires » (accès au code source). Ils n’exigent rien non plus sur la performance des algorithmes. Seule une évaluation clinique en continu (et des investigations cliniques pour des DM implantables de classe III) est prévue par le RDM, ainsi qu’une surveillance après commercialisation en cas de modification substantielle du DM. Mais elle ne prend pas en compte des systèmes d’IA autonomes et dynamiques.