CONTACT

L’Assemblée mondiale pour la protection de la vie privée adopte une résolution sur l’accountability dans le développement et l’usage de l’intelligence artificielle

19 janvier 2021 | Derriennic Associés|

Lors de sa dernière session en octobre dernier, l’Assemblée mondiale pour la protection de la vie privée a adopté une résolution sur l’accountability dans le développement et l’usage de l’intelligence artificielle (IA).

L’Assemblée mondiale pour la protection de la vie privée ou Global Privacy Assembly (ci-après l’ « Assemblée »), anciennement appelé la Conférence internationale des commissaires de la protection des données, est le premier forum international dédié aux questions de protection des données et vie privée.

Il regroupe 130 autorités de protection des données à travers le monde, dont la Commission nationale de l’informatique et des libertés (CNIL).

Le terme accountability signifie en français « responsabilité ». Ce principe est issu d’une logique de responsabilisation des acteurs et implique l’obligation pour les entreprises de mettre en œuvre des mécanismes et des procédures internes permettant de démontrer le respect des règles relatives à la protection des données.

En 2018, cette Assemblée avait souligné les avantages mais aussi les risques liés au développement de l’IA, nécessitant d’initier des réflexions d’ordre éthique et de droits de l’Homme et avait adopté une « Déclaration sur l’éthique et la protection des données dans le domaine de l’intelligence artificielle » (dont la CNIL était co-auteur):

  • énonçant une série de grands principes directeurs (tels que principe de loyauté ou encore transparence) et,
  • établissant un groupe de travail permanent dont la mission devait être de relever les défis associés au développement de l’intelligence artificielle.

Ce groupe de travail a été chargé de favoriser la compréhension et le respect de ces principes par toutes les parties prenantes dans le développement des systèmes d’intelligence artificielle (dont autorités, organismes de normalisation, ou encore développeurs).

Dans ce cadre, le groupe de travail a ainsi réalisé une enquête en mai et juin 2020 auprès des membres de l’Assemblée, afin de recueillir leur opinion sur les mesures considérées comme particulièrement importantes pour démontrer sa conformité.

Sur les 38 membres qui ont répondu à cette enquête dont la CNIL, 68% estiment que le développement et l’usage de l’IA est toujours largement non régulé et réglementé.

Sur l’ensemble des mesures proposées dans le cadre de l’enquête, 13 mesures ont été reconnues comme importantes, voire très importantes, à savoir, :

  • Analyser les potentiels impacts éthiques avant le développement et/ ou l’usage de l’IA ;
  • Tester la robustesse, fiabilité de l’IA avant de l’utiliser ;
  • Maintenir un registre des analyses d’impact, du design, du développement et de l’usage de l’IA ;
  • Divulguer les résultats d’une analyse d’impact sur l’éthique ;
  • Être transparent sur le principe de l’utilisation de l’IA ;
  • Assurer une surveillance et évaluation continuelle par des humains des performances de l’IA ;
  • Assurer un contrôle humain sur les décisions automatisées de l’IA ;
  • Mettre à disposition des explications sur les décisions automatisées sur demande ;
  • Permettre une intervention humaine sur de telles décisions ;
  • Mettre en place un mécanisme de dénonciation de non-conformités ou risque significatif dans l’utilisation de l’IA ;
  • Coopérer dans le cadre d’investigations menée par des autorités de protection des données (auditabilité) ;
  • Tenir les organismes pour responsables en cas de défaillance de conception ou de fonctionnement de l’IA ;
  • Accréditer ou certifier les systèmes d’IA.