Cahier thématique n°23 - IA en santé, entre promesses et prudence
01. IA en santé : définition, contexte et enjeux
En santé, quelle intelligence artificielle pour quels besoins ?
25/07/2024

La révolution actuelle se caractérise par l’émergence d’algorithmes auto-apprenants, rendue possible par la progression massive de la puissance de calcul des ordinateurs et la production sans cesse croissante de données. Aujourd’hui, l’IA se résume encore à une « intelligence » purement analytique. Pour autant, c’est grâce à l’IA générative(1) que l’intelligence artificielle s’est mise à la portée du grand public. Elle permet de déboucher sur des applications nouvelles et décisives dans le domaine de la santé, notamment dans l’analyse d’imagerie médicale ou dans la détection précoce d’un cancer. (1) Une intelligence artificielle capable de générer de nouveaux contenus (texte, images, vidéos, musique) grâce aux données fournies à chaque requête lors de sa programmation.
Un contexte propice au développement de l’IA
Vieillissement de la population, croissance des maladies chroniques et des soins ambulatoires, mais aussi désertification médicale et manque d’attractivité de certains diplômes dans les métiers de la santé… le contexte propre au système de santé actuel et les nouveaux besoins qui en découlent expliquent en partie la multiplication d’outils numériques et robotiques pour y répondre.
Parmi les atouts et promesses de l’IA, citons la corrélation accélérée de nombreux facteurs (cliniques, biologiques, externes) pour accompagner les professionnels de santé et optimiser leur temps, prioriser les cas complexes, ou encore identifier des événements imperceptibles, même par une intelligence humaine entraînée.
Dans son rapport sur l’IA en santé publié en octobre 2023, l’OMS constate son potentiel, notamment pour l’amélioration des essais cliniques, des diagnostics et des traitements médicaux, l’autogestion des soins et les soins personnalisés. Parce qu’elle permet des réflexions plus rapides et plus poussées, l’IA facilite également la création de connaissances, d’aptitudes et de compétences davantage fondées sur des données probantes pour les professionnels, afin de soutenir les soins de santé. L’institution y dresse 18 recommandations très proches des mesures prévues par le règlement européen sur l’intelligence artificielle de 2024 (voir article "Règlement européen sur l'IA : première réglementation au monde des usages d'IA").
Un « superpouvoir » pour renforcer le rôle des pharmaciens
Dans ce contexte, et face aux craintes soulevées par l’irruption de l’IA dans les métiers pharmaceutiques, Lars-Åke Söderlund, vice-président de la Fédération internationale pharmaceutique (FIP), a pris la parole en janvier 2024 pour rassurer ses confrères : « L’IA peut être vue comme un superpouvoir qui vous permet d’effectuer des tâches avec une plus grande précision et plus rapidement, mais vous gardez le contrôle. L’IA est susceptible d’augmenter et de renforcer le rôle des pharmaciens, pas de les remplacer. » Comme toute technologie dans le domaine de la santé, l’IA doit être in fine au service du patient. C’est déjà notamment le cas pour un certain nombre d’outils utilisés dans le cadre des différents métiers de la pharmacie (voir les articles du dossier "02. Les applications de l’IA dans les différents métiers de la pharmacie"). On peut citer les logiciels d’aide à la décision en matière de pharmacie clinique, l’assistance à la préparation d’anticancéreux, en microbiologie, ou encore le télésuivi pharmaceutique de patients… Au-delà, l’IA est aujourd’hui présente d’une manière ou d’une autre dans la plupart des systèmes d’information des pharmaciens.
La CNIL et les autorités de sante convaincues
La Commission nationale de l’informatique et des libertés (CNIL) et les autorités de santé soutiennent l’utilisation de l’IA en santé pour améliorer l’accès aux soins et la sécurité des patients. Le rapport Villani(2) de 2018 en soulignait les avantages potentiels. Lors d’un colloque en 2023, des représentants de la CNIL et de l’Alliance IHU(3) France ont évoqué un « consensus social sur les finalités de l’IA en santé », soulignant le potentiel extraordinaire de l’IA pour améliorer les soins, avec une diversité infinie de cas d’utilisation possibles. Et la CNIL a publié le 8 avril 2024 ses premières recommandations sur le développement des systèmes d’IA impliquant un traitement de données personnelles, qui concernent, dans un premier temps, les phases de développement (conception du système, constitution de la base de données, apprentissage) et dans un second temps, les phases de déploiement avec, à la clé, des fiches pratiques à destination des professionnels(4). Objectif de la CNIL : les « aider à concilier innovation et respect des droits des personnes pour le développement innovant et responsable de leurs systèmes d’IA ».
(2) Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne, mars 2018.
(3) L’alliance IHU regroupe six instituts hospitalo-universitaires labellisés qui ont fait le choix d’allier leurs forces au bénéfice de l’accélération de l’innovation médicale en France.
(4) www.cnil.fr/fr/les-fiches-pratiques-ia
IA : de quoi parle-t-on ?
Il n’y a pas de consensus sur la notion d’« intelligence » artificielle. L’IA, telle qu’on l’entend aujourd’hui, auto-apprenante mais uniquement analytique, a pris son essor dans les années 2010. Pour certains,
la véritable IA n’a pas encore vu le jour, à savoir l’intelligence artificielle générale (capable d’apprendre toute tâche cognitive propre à l’humain).
En 2024, aucune technologie ne permet de penser que l’on y arrivera. Le chercheur français Yann Le Cun, considéré comme l’un des inventeurs de l’apprentissage profond, définit l’IA comme « un ensemble de techniques permettant à des machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux », sans conscience d’elle-même et sans capacité d’empathie. Concrètement, aujourd’hui, l’IA consiste à construire, à l’aide de techniques mathématiques et de données, des modèles capables d’avoir une intelligence inductive (extrapolation d’informations à partir d’exemples) ou déductive (à partir de règles).
En savoir plus
Consultez l’article 3 du règlement européen sur l’intelligence artificielle
Comprendre le Machine Learning (ML) et le Deep Learning (DL)
Machine Learning (apprentissage automatique) | Deep Learning (apprentissage profond) | |
Comment ça marche ? | Apprentissage à partir de données pour créer des modèles prédictifs ou des décisions | Utilisation de réseaux de neurones artificiels pour apprendre des représentations de données hiérarchiques. Il se base sur le Machine Learning. |
Quel type de données ? | Structurées* ou non structurées. | Principalement des données non structurées comme des images, des vidéos, du texte, etc. |
Quels exemples d’application ? | Surveillance des patients (monitoring), système de recommandation de traitement, développement de médicaments… | Analyse d’imagerie médicale, segmentation d’organes et de tissus, prédiction de résultats cliniques… |
*Les données structurées sont organisées de manière claire et prévisible, généralement sous forme de tableau (par exemple : nom, âge, date, adresse…). |
Prometteuse mais faillible, l’IA nécessite des garde-fous, d’après le CCNE
Un avis « Diagnostic médical et intelligence artificielle : enjeux éthiques » a été publié de concert en 2023 par le Comité consultatif national d’éthique (CCNE) et le Comité national pilote d’éthique du numérique (CNPEN).
À cette occasion, les comités indiquaient « des perspectives d’avancées très significatives [de l’IA] pour les patients ». Mais, ajoutaient-ils, « il est important de souligner que les systèmes d’IA pour le diagnostic médical produisent des résultats basés, d’une part, sur des approches qui peuvent être probabilistes et, d’autre part, qui peuvent être entachés d’erreurs. S’il ne serait pas éthique que les équipes soignantes et les patients se privent des avantages apportés par ces outils, il faut se donner constamment les moyens
de prendre de la distance avec le résultat fourni : il est indispensable de créer les conditions de la confiance ». D’où 16 recommandations des comités, mais aussi 7 points de vigilance, dont celui d’éviter toute logique de substitution à des professionnels de santé, ou encore d’encourager la recherche pour établir le bénéfice-risque de ces systèmes.
Ajoutons que le principe de garantie humaine préconisé par notre CCNE a été intégré au règlement européen sur l’IA, adopté au printemps 2024. L’article 14 du règlement européen sur l’IA indique
que les systèmes d’IA à haut risque doivent être conçus, développés et fonctionner sous la supervision de personnes physiques.