Le 13 mars 2024, le Parlement européen a adopté le projet de règlement relatif à l’intelligence artificielle (IA) après deux ans de travail. Première initiative réglementaire mondiale, cette loi encadre l’utilisation de systèmes d’IA en fonction du risque qu’ils représentent. Le texte législatif établit des règles harmonisées pour le développement, la mise sur le marché et l’utilisation de ces systèmes, avec pour objectif notamment de veiller à la sécurité des systèmes d’IA mis sur le marché de l’Union et à leur respect des droits fondamentaux.

L’intelligence artificielle a de nombreuses applications dans les différents métiers de la pharmacie. Elle peut être utilisée pour l’analyse d’ordonnances à l’hôpital et en officine, la gestion des stocks et l’optimisation de la distribution de médicaments, la recherche et le développement de médicaments (essais cliniques, processus d’autorisation de mise sur le marché, pharmacovigilance) et en biologie médicale pour cibler les patients à risque ou éligibles à un dépistage mais aussi pour les phases analytiques et post-analytiques (anticipation d’examens complémentaires en fonction des résultats).

Une définition du système d’intelligence artificielle

Le règlement définit un système d’intelligence artificielle (SIA) comme un système automatisé conçu pour fonctionner à différents niveaux d'autonomie. Il peut faire preuve d'une capacité d'adaptation après son déploiement et déduire à partir des données d'entrée qu'il reçoit, pour des objectifs explicites ou implicites, la manière de générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels.

Le règlement s’appliquera non seulement aux fournisseurs mais également aux déployeurs c’est-à-dire aux utilisateurs des systèmes d’intelligence artificielle.

Un outil réglementaire horizontal fondé sur l’évaluation des risques

Le règlement adopte une approche fondée sur le risque, avec quatre niveaux :

  • Les SIA présentant un risque inacceptable sont interdits. C’est le cas par exemple des systèmes d’IA qui manipulent le comportement humain.
  • Ceux présentant un haut risque - tels que ceux contenus dans des dispositifs médicaux ou appliqués dans des secteurs à haut risque - seront soumis à des exigences strictes notamment sur l’évaluation de la conformité, le marquage CE, la réduction des risques, la qualité des données, le contrôle humain, l’enregistrement des activités, la documentation détaillée, les informations données à l’utilisateur, la transparence, la robustesse et l’exactitude des informations, la cybersécurité et sur la surveillance après commercialisation.
  • Ceux présentant des risques faibles ou minimes sont soumis à des exigences moins ou non contraignantes comme par exemple les chatbots ou le filtre anti-spam d’une boîte de courrier électronique.

Arrivé au terme du processus législatif, le texte contraignant s’appliquera dans toute l’Union européenne deux ans après sa publication.

En savoir plus :