
La CNIL a complété le panel de fiches pratiques en matière de développement d’IA qu’elle a commencé à publier en mai 2024[1]. Les nouvelles fiches portent sur la phase d’annotation des données d’entrainement lorsqu’elle porte sur ou contient des données personnelles (fiche n°11), les risques et les mesures à prendre en termes de sécurité afin de « garantir la protection des données tant lors du développement du système que par anticipation de son déploiement » (fiche n°12) et une méthode permettant aux « fournisseurs » d’analyser si leur modèle d’IA sont soumis ou non au RGPD (fiche n°13).
La CNIL a également annoncé la publication prochaine d’autres travaux en matière d’IA : recommandations propres à certains secteurs (santé, travail…), recommandations sur la responsabilité RGPD des différents acteurs intervenant sur la chaine de création d’un système d’IA (des précisions sont, en particulier, attendues s’agissant du recours à l’open source dans le développement de l’IA) ou encore des travaux de recherche de la CNIL relativement à l’explicabilité dans le domaine de l’IA pour plus de sécurité juridique. Pour en savoir plus.
[1] Notre article sur le sujet : https://derriennic.com/premieres-recommandations-de-la-cnil-en-matiere-dia-quels-exemples-appliques-au-secteur-de-la-sante-dsih-mai-2024/