CONTACT

IA et Santé : le Parlement Européen souligne les risques et lacunes de la règlementation

25 juillet 2022 | Derriennic associés|

Le service de recherche du Parlement Européen a publié, en juin 2022, une étude « Artificial intelligence in healthcare: Applications, risks, and ethical and societal impacts ». L’objectif est de promouvoir l’usage de l’IA dans le domaine de la santé (pratique clinique, recherche biomédicale…), en identifiant les risques propres à ce secteur et en proposant des mesures d’atténuation de ces risques. Autant de mesures à destination des concepteurs de solutions informatiques et des établissements de soins utilisateurs.

Le recours à l’IA en matière de soins et de santé fait en effet régulièrement l’objet de controverses. La fiabilité du diagnostic médical est particulièrement questionnée, tout comme la responsabilité des professionnels de santé du fait de l’usage de ces solutions. Les enjeux sont cruciaux. Le recours à ces technologies a une incidence directe sur la santé et la vie des patients.

L’étude identifie sept risques principaux concernant le recours à l’IA en santé :

  1. des préjudices causés au patient : les erreurs de diagnostic ou de résultats peuvent entrainer des interventions inutiles et avoir des conséquences potentiellement mortelles ;
  2. une mauvaise utilisation des outils d’IA par les personnes chargées de l’utiliser dans la pratique (par exemple, les professionnels de la santé) ;
  3. l’existence de biais dans les algorithmes d’IA et le risque de renforcement des inégalités existantes (la représentativité des données étant cruciale) ;
  4. le manque de transparence : une explicabilité insuffisante des prédictions et résultats générés entrainant un défaut de confiance ;
  5. la confidentialité et de sécurité des données de santé, ce qui comprend la divulgation non autorisée de données personnelles, des violations de données et la vulnérabilité face aux cyberattaques au niveau individuel, hospitalier et du système de santé en général;
  6. des lacunes dans la gestion des responsabilités, en cas d’erreurs de l’IA ; et
  7. d’importants obstacles à la mise en œuvre de l’IA, compte tenu notamment de problématiques de qualité et d’interopérabilité des données.

L’étude souligne que ces risques ne sont, à l’heure actuelle, pris en compte ni par les règlementations sectorielles relatives aux dispositifs médicaux (qui n’appréhendent pas les spécificités de l’IA), ni par le projet de règlement communautaire relatif à l’IA (trop général et non dédié au secteur de la santé). L’une des principales critiques formulées concerne la question des responsabilités en cas d’erreurs ou de dysfonctionnements de l’IA. A ce jour, seuls les professionnels de santé sont responsables en cas d’erreur médicale. Or, la responsabilité des concepteurs et fabriquant des systèmes d’IA, tout comme la clarification des responsabilités des différents acteurs impliqués dans la conception et le déploiement de ces systèmes, seraient indispensables pour favoriser le recours à ces systèmes. La réforme attendue du régime de la responsabilité des fabricants du fait des produits défectueux pourrait en partie répondre à cet enjeu, même sont des adaptations sectorielles seront probablement nécessaires.

L’étude formule enfin plusieurs recommandations telles que la mise en place d’un passeport IA pour la normalisation et la traçabilité des systèmes entre les pays et les organismes de santé, l’élaboration de cadres pour améliorer la définition de la responsabilité et le suivi des responsabilités en IA médicale. 

Cette étude du Parlement Européen fait écho au guide de bonnes pratiques publié en mai 2022 par le Ministère des Solidarités et de la Santé et relatif à la prise en compte de l’éthique dans les solutions d’Intelligence Artificielle en Santé (objet d’un précédent article).

Source :  ici