Codeem

1ère analyse du Codeem autour des enjeux éthiques de l’intelligence artificielle

14.02.25
Ce document est une première réponse formulée par le Codeem à la saisine du président du Leem en date du 20 mai 2022 et relative à l’« Intelligence artificielle et les outils digitaux en santé ».
Cette note vise à sensibiliser l’ensemble des acteurs du secteur du médicament aux enjeux éthiques de l’IA. Elle rappelle l’importance de compléter l’approche par les risques, retenue par le Règlement européen sur l’IA, par une approche fondée sur le questionnement et l’attitude éthiques.
Les propositions formulées sont donc non contraignantes, à ce stade, et constituent davantage un ensemble de conseils et de propositions adressés aux différentes parties prenantes.

Nous rappelons en préambule que l’IA est définie par le règlement européen sur l’IA de 2024, repris de l’OCDE, comme étant "un système basé sur une machine qui [...] déduit à partir des données qu'il reçoit comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent affecter des environnements physiques ou virtuels".


Cette note s’articule autour de trois temps.

Elle présente tout d’abord le contexte du développement de l’IA.
Ce contexte est marqué par la nécessité de concilier un système de santé curatif et préventif, et pour ce faire, d’avoir un accès facilité et rapide aux données de santé. La configuration actuelle du système de santé est également déterminée par un accès de plus en plus autonome du patient à l’information, par l’explosion du nombre de données, et celle concomitante du nombre des publications scientifiques, tout ceci dans un environnement international hyperconcurrentiel.

Elle pointe ensuite les enjeux éthiques de la conception, du développement et de l’utilisation des systèmes d’IA en santé. En particulier, ceux liés aux systèmes d’IA eux-mêmes (ethics by design en amont et éthique de l’usage en aval), ceux liés à la valeur scientifique et à l’intégrité des données de santé utilisées et produites.
Elle souligne aussi les défis que constituent d’une part, le réagencement des pouvoirs et des responsabilités entre acteurs au sein de l’écosystème de santé, et d’autre part, l’élaboration et la mise en œuvre d’une gouvernance responsable de ce dernier.   

Elle formule enfin quelques propositions.
Les entreprises du médicament gagneraient à renforcer leur dispositif d’éthique des affaires, à partir d’une cartographie des systèmes d’IA et l’identification des risques, en mettant en place un comité éthique de l’IA indépendant des lignes métiers, dédié à ces questions, ainsi que des espaces de dialogues et de débats au niveau opérationnel.
En outre, au nom du principe d’efficacité et de simplification d’accès, il est important pour les entreprises de porter une attention particulière aux enjeux sociétaux.

Le Leem pourrait, lui, avoir un rôle moteur dans la co-construction du modèle de « supervision-humaine (2) », ainsi qu’un rôle de pédagogue et de formateur auprès de ses membres. 

Le Codeem, enfin, pourra veiller à émettre des recommandations en termes de principes déontologiques, et de questionnement éthique sur la base, par exemple, d’un benchmark mené auprès des membres du Leem. 
Il pourrait également proposer et coordonner un plan d’actions avec les autres acteurs du système de santé (syndicats, acteurs des dispositifs médicaux, du système hospitalier, de la médecine de ville, agrégateurs de données…).
De manière plus générale, il pourrait fournir un support ou un accompagnement à la réflexion sur ces questions aux membres qui le souhaiteraient.
 

L'analyse

 

 

 

(2) Selon ses concepteurs, la notion de supervision humaine de l’IA renvoie à l’ardente nécessité, voire l’obligation pour tout concepteur d’une IA, de mettre en place un dispositif de supervision dès la phase de conception et au cours de l’utilisation en vie réelle. L’AFNOR SPEC 2213  décrivant ce dispositif parle de « Collège de Garantie humaine », dont la composition et le rôle sont définis dans le document. Dans l’esprit, un tel collège joue un rôle primordial dans la prévention et la gestion des risques. Il inclut des experts et des utilisateurs.