CONTACT

Utilisation de l’IA par la police et la justice : le Parlement Européen contre la surveillance de masse

06 décembre 2021 | Derriennic Associés|

Utilisation de l’IA par la police et la justice : le Parlement Européen contre la surveillance de masse

Résolution du Parlement européen du 6 octobre 2021

L’intelligence artificielle offre de grandes possibilités dans les secteurs répressifs et judiciaires. Le Parlement Européen exprime néanmoins sa vive inquiétude quant à l’utilisation de ces technologies par les autorités policières et judiciaires dans les affaires pénales, dans une résolution du 6 octobre 2021 sur l’intelligence artificielle (« IA ») en droit pénal (2020/2016(INI).

Le Parlement relève que les risques déjà élevés d’atteinte aux droits fondamentaux, en particulier de la présomption d’innocence, sont accrus dans le cadre judiciaire et répressif, les décisions prises par les autorités policières et judiciaires produisant des effets juridiques pour les personnes concernées.

Le Parlement est particulièrement préoccupé par le risque de surveillance de masse de la population. Pour les députés, les personnes ont le droit d’être correctement identifiées, mais aussi de ne pas être identifiées du tout. Les citoyens ne devraient donc pas être surveillés s’ils ne sont pas soupçonnés d’un crime.

Le Parlement insiste par ailleurs sur les risques importants d’erreurs dans les résultats produits, et de discrimination compte tenu des biais inhérents à ces technologies et aux jeux de données qu’elles utilisent. Le nombre important d’erreurs d’identification et de catégorisations est accentué concernant certaines catégories de personnes, telles que les groupes ethniques minoritaires, les personnes LGBTQI, les femmes et les personnes âgées. De plus, les résultats produits par les applications d’intelligence artificielle sont nécessairement influencés par la qualité des données utilisées. Le Parlement souligne que « ces biais inhérents ont tendance à se renforcer progressivement et ainsi à perpétuer et amplifier les discriminations existantes, en particulier pour les personnes appartenant à certains groupes ethniques ou à certaines communautés racialisées ».

Le Parlement appelle en conséquence à :

  • un moratoire sur le déploiement des outils de reconnaissance faciale destinés à l’identification des individus,  à des fins répressives, jusqu’à ce que les systèmes IA soient plus sûrs et plus fiables. La seule exception autorisée concernerait l’utilisation par la police à des fins d’identification des victimes de la criminalité,
  • une interdiction permanente des outils d’analyse et de reconnaissance automatisés des individus dans les espaces accessibles au public (ex : outils basés sur la démarche ou autres signes biométriques),
  • une interdiction des outils de police prédictive (basés sur une analyse prédictive du comportement de personnes afin d’identifier les personnes susceptibles de commettre une infraction). Le Parlement pointe ainsi l’abandon récent de ces technologies par certaines villes américaines au bénéfice d’un retour à la police de proximité, compte tenu du manque d’efficacité et des discriminations engendrées par leur usage,
  • une interdiction des systèmes de notation des individus, qui cherchent à évaluer la fiabilité des personnes en fonction de leur comportement ou de leur personnalité,
  • l’interdiction de l’utilisation des technologies IA pour proposer des décisions judiciaires.

La Parlement manifeste également son inquiétude concernant l’utilisation par les services policiers et judicaires de bases de données privées de reconnaissance faciale (de type Clearview AI) ou de technologies biométriques pour le contrôle aux frontières.

Le Parlement invite expressément la Commission « à mettre un terme au financement de la recherche ou du déploiement de données biométriques ou de programmes susceptibles de donner lieu à une surveillance de masse dans les espaces publics ».

Afin de limiter les risques liés à l’utilisation de ces technologies, le Parlement préconise plusieurs mesures notamment :

  • la supervision systématique de l’intelligence artificielle par l’humain.Les autorités qui recourent aux systèmes IA doivent garantir une intervention humaine. La décision finale doit toujours être prise, au cas par cas, par un être humain, qui pourra être tenu responsable des décisions prises ;
  • l’existence de voies de recours  pour les personnes soumises aux systèmes d’intelligence artificielle ;
  • la transparence, traçabilité et documentation des systèmes d’IA, algorithmes et processus de prise de décision, afin de pouvoir retracer l’origine d’une décision ;
  • la réalisation systématique d’une étude d’impact avant la mise en œuvre ou le déploiement de tout système d’IA et d’audits périodique par une autorité indépendante ;
  • la formation des décideurs à l’utilisation de ces technologies, afin qu’ils soient alertés sur les risques de biais et demeurent critiques.

Cette résolution a été transmise à la Commission européenne et au Conseil, et devrait alimenter les débats relatifs au projet de règlement du 21 avril 2021, établissant des règles harmonisées concernant l’intelligence artificielle (objet d’un précédent article) .

Elle va dans le sens de plusieurs avis critiques émis sur ce projet, notamment par le Contrôleur Européen de la protection des données le 18 juin 2021, ou encore de le  Haut-Commissariat à l’ONU aux droits de l’Homme le 15 septembre 2021, qui appelaient notamment à l’interdiction des systèmes de reconnaissance faciale dans l’espace public, compte tenu des risques importants d’atteinte à la vie privée.