Quelles sont les perspectives de l’IA en santé et en pharmacie ? Difficile à prédire tant le développement des technologies et de leurs usages s’accélère, comme le démontre de mois en mois le déferlement de l’IA générative. Deux personnalités nous aident néanmoins à dessiner le cadre qui permettra l’essor de l’intelligence artificielle dans notre domaine.

« Des progrès considérables si l’éthique est respectée », Jean-Gabriel Ganascia, informaticien et philosophe 

Vous menez des travaux sur l’intelligence artificielle et sur l’éthique des technologies recourant à l’intelligence artificielle. Est-ce une clé de leur essor dans la santé ?

Jean-Gabriel Ganascia : Il faut se souvenir que le mot éthique vient du grec ethos qui désigne les mœurs, les habitudes, les usages communs aux femmes et aux hommes vivant en société et, par extension, la branche de la philosophie qui s’interroge sur le fondement des règles de conduite que l’on décide d’adopter dans nos comportements vis-à-vis de nos semblables. Avec le numérique et l’intelligence artificielle, les relations inter­humaines et, par suite, la société évoluent. C’est pourquoi la réflexion qui aide à établir nos règles de conduite, c’est-à-dire l’éthique au sens philosophique, doit elle aussi évoluer. Pour saisir les enjeux, il faut comprendre que les objets programmés avec des technologies de l’intelligence artificielle dépendent en grande partie de l’environnement social à l’intérieur duquel ils sont déployés et qui leur donne sens. Ce sont des objets sociotechniques, et pas uniquement ces objets techniques, en ce sens que leur mise en œuvre dépend des modes d’appropriation de leurs utilisateurs. Dans le cas de la santé, on assiste à des progrès considérables tant pour la science médicale, que pour la conception de médicaments, la biologie moléculaire, le diagnostic, la détection de contre-­indications… Tous les acteurs du système de santé sont concernés à des degrés divers. Alors oui, l’éthique sera la clé pour élargir les perspectives de l’IA en santé, en plaçant chaque outil à la bonne place et entre les bonnes mains. L’éthique passera aussi par le fait que tout le monde puisse avoir accès à ces progrès.

Comment serons-nous assurés que l’IA est « digne de confiance » ?

J.-G. G. : Il est possible, même si c’est difficile, de prouver mathématiquement qu’un programme informatique est toujours valide, en démontrant que sa sortie satisfait des spécifications formelles préalablement fournies. Mais dans le domaine de la santé, le problème c’est l’absence de spécifications formelles. On ne sait pas caractériser très précisément la forme et la couleur d’un grain de beauté pathogène, par exemple. C’est une compétence que les professionnels de santé acquièrent avec le temps et l’expérience. On fait appel aux techniques d’apprentissage machine sur un grand nombre d’exemples fournis par des professionnels pour acquérir l’équivalent de cette expérience. Mais, cet apprentissage étant inductif, il est par nature conjectural. Il est donc toujours possible de faire des erreurs. Pour réduire cette probabilité, on doit d’abord vérifier que les exemples d’entraînement couvrent bien tout le spectre à considérer. Puis on s’assure de la stabilité du programme en faisant subir des petites perturbations aux exemples et en vérifiant que la réponse n’en est pas altérée. Le troisième élément d’une IA digne de confiance est la sémantique : il faut contrôler que les éléments pris en compte dans la décision sont ceux qui sont pertinents. Une IA « digne de confiance » tient à cette robustesse du système. La garantie humaine viendra, quant à elle, au moment de la décision, ce qui suppose que le professionnel de santé dispose d’informations sur les paramètres pris en compte par le système, c’est-à-dire des explications. En revanche, la transparence d’un système d’IA sera toujours très difficile, voire impossible, compte tenu du nombre de calculs qui dépasse notre entendement.

L’IA va-t-elle dépasser l’humain ou pourrait-elle le remplacer ?

J.-G. G. : Rappelons que, dans certains cas, l’humain est plus sujet à l’erreur que la machine. Cela étant, le risque ne sera pas tellement que la machine nous dépasse, mais que, sans s’assurer de la cohérence du résultat, un professionnel de santé place une confiance aveugle dans la machine. Ou que des hommes, ou plus exactement, des institutions, par exemple des assurances sociales, contraignent la population à se plier aux décisions des machines. Dans cette éventualité, les hommes renonceraient à leur liberté et, par là, à leur responsabilité, ce qu’il faudrait à tout prix éviter.

Quant à voir des personnes « augmentées », qui utiliseraient les technologies non pour réparer un handicap, mais pour disposer de compétences nouvelles, par exemple pour courir plus vite et plus longtemps, c’est une possibilité qui devrait faire l’objet de réflexions éthiques. Jusqu’où aller ? On peut imaginer l’existence de lignes rouges à ne pas franchir liées, par exemple, à l’irréversibilité des transformations.

Soyons confiants : dans le domaine de la pharmacie, on voit déjà arriver des diffuseurs de médicaments dans le corps ou encore la multiplication de marqueurs pour la personnalisation des traitements. On ne peut nier que ces évolutions seront très positives et qu’elles laissent présager des innovations qui changeront la santé de demain !

« Le début d’une nouvelle ère », Isabelle Adenot, présidente de l’Agence du numérique en santé (ANS) 

Comment voyez-vous les perspectives de l’IA en santé et en pharmacie ?

Isabelle Adenot : Nous ne sommes plus dans une évolution incrémentale des technologies, mais dans une révolution, et même au début d’une nouvelle ère. Dans la santé, comme dans les autres domaines, l’IA va modifier notre manière de penser et notre dynamique de travail. Pour que le système de santé ait un avenir, les innovations sont indispensables au vu des défis gigantesques qui sont à relever. Dans la pharmacie, elle offre énormément de perspectives dans tous les métiers : recherche, surveillance épidémiologique, pharmacovigilance, conception de nouveaux médicaments, jumeaux numériques, cohor­tes virtuelles… Je pense que l’IA générative va changer la donne, par exemple en générant des projets de bilans de médication ou de prévention. L’usage de l’intelligence artificielle sera aussi un apport dans les analyses de traitements, la revue d’un dossier médical, les recom­man­da­tions personnalisées… Les alertes liées à l’IA seront de plus en plus pertinentes, dans la télésurveillance et le télésoin. En complément, on retrouvera beaucoup de systèmes d’IA dans la partie logistique de tous les métiers de la profession où l’optimisation ou l’anticipation des flux est clé. Je citerai aussi l’optimisation des process qualité grâce à l’IA, par exemple pour la stérilisation, l’assistance aux préparations de chimiothérapies…

La construction de réglementations spécifiques sera-t-elle un gage suffisant de sécurité 
et de confiance ?

I. A. : Je suis très contente que l’Europe soit avant-gardiste sur l’encadrement de l’intelligence artificielle. Au règlement sur l’IA s’ajoutent les règlements sur les dispositifs médicaux, le RGPD et le règlement sur l’Espace européen des données de santé. Les questions de responsabilité seront également abordées avec une modification de la directive sur les produits défectueux. Alors que certains voient un frein à l’innovation dans tout ce package juridique, j’y vois plutôt un espace de confiance propice au dévelop­pement des outils d’IA et à leur appropriation par les industriels et les professionnels de santé. À cet égard, les pharmaciens ont souvent été confrontés à des ruptures technologiques. J’ai une totale confiance dans leur capacité à utiliser des technologies qui seront parfois très disruptives. En revanche, les professionnels devront être très attentifs à appliquer les mesures de prévention de cybersécurité, par exemple avec le programme CaRE(16) à l’hôpital, mais aussi dans tous les métiers. 

(16) Cybersécurité accélération et résilience des établissements : un programme de l’Agence du numérique en santé pour répondre à l’augmentation de la menace de cyberattaques.

L’ANS a publié, début 2024, un référentiel éthique pour les services numériques de santé intégrant de l’IA. L’élargissement du champ des possibles passe-t-il aussi par le partage d’expériences autour de bonnes pratiques ?

I. A. : Oui, car le numérique et l’IA ne sont pas une fin en soi. Mais, vous savez, on retrouve quatre grands piliers dans l’éthique numérique : la bienfaisance, la non-malfaisance, le respect de l’autonomie, la justice/l’équité (plus la question absolument essentielle aujourd’hui de l’écoresponsabilité). Eh bien ces piliers sont aussi ceux de l’activité clinique ! J’ajouterai qu’un outil d’IA ne sera utilisé que s’il est adapté aux pratiques professionnelles et non l’inverse. Le raisonnement d’un professionnel de santé étant tourné vers le bénéfice du patient, il faut que l’ingénieur, le data scientist ou le data analyst soit dans la même optique et que l’outil soit très fluide dans l’usage. C’est aussi une nouvelle ère de l’interprofessionnalité qui s’ouvre ici.