CONTACT

Utilisation de l’IA générative en entreprise : quelles recommandations pour vos salariés ?

21 juin 2023 | Derriennic associés|

Face aux risques que posent les IA génératives de textes, d’images, de vidéos, et de codes informatiques, les entreprises commencent à édicter des lignes directrices et codes de bonne conduite à destination de leurs salariés.


Et ceci semble d’autant plus nécessaire qu’à ce jour, parmi les français qui utilisent des IA génératives dans l’entreprise, 68 % ne le disent pas à leur supérieur hiérarchique (source : Sondage IFOP pour Talan de mai 2023).

La sensibilisation des salariés aux risques liés à l’usage des IA génératives est donc essentielle, tout comme la mise en œuvre de politiques internes pour encadrer la sélection et l’utilisation de tels outils.

Mardi 30 mai 2023, la Commission européenne aurait publié, en interne, des lignes directrices destinées à son personnel sur l’utilisation des modèles d’intelligence artificielle générative en ligne, en particulier en ce qui concerne leurs limites et les risques qu’ils présentent. Le contenu de ces directives, relayé par Euractiv (média indépendant spécialisé dans l’actualité européenne) est l’occasion de revenir sur quelques exemples de règles pouvant être adoptées au sein des entreprises pour limiter les risques liés à ces nouveaux usages.

Principaux RisquesPréconisations
Confidentialité : Toute donnée fournie à un modèle d’IA générative est susceptible d’être transmise au fournisseur de l’IA, qui peut ensuite s’en servir pour entrainer l’IA, en améliorer la performance. En résulte un risque de divulgation d’informations sensibles ou de données personnelles au public puisque les données communiquées par les salariés sont susceptibles d’être reproduites dans les résultats générés à l’avenir pour d’autres utilisateurs, hors de l’entreprise.La Commission Européenne dans ses lignes directrices interdirait à son personnel tout partage avec l’IA d’information qui ne relève pas déjà du domaine public et toute donnée personnelle.   En complément, les mesures suivantes pourraient être initiées : favoriser la sélection d’outils d’IA :ne permettant pas la réutilisation des données des utilisateurs à des fins de réentrainement du modèle, à des fins d’amélioration du système d’IA ;assurant la confidentialité des données communiquées ou permettant un paramétrage de la confidentialité ;sensibiliser le personnel aux problématiques de confidentialité et de respect du secret des affaires.  
Erreurs : Les lacunes du modèle d’IA ou le défaut de qualité ou de mise à jour des données d’entrainement peuvent conduire à des réponses erronées ou biaisées.L’IA n’est qu’un outil, une aide, dont l’utilisateur doit conserver la maitrise.   La Commission Européenne dans ses lignes directrices appellerait son personnel à « toujours évaluer de manière critique toute réponse produite par un modèle d’IA générative disponible en ligne afin de détecter les biais potentiels et les informations factuellement inexactes ».  
Violation de droits de PI puisqu’à ce jour, il n’existe aucune obligation de transparence des éditeurs sur les sources des données utilisées à des fins d’entrainement   On rappellera les risques de contrefaçon ou de parasitisme pour les utilisateurs dans la mesure où les résultats des IA génératives sont susceptibles de reproduire tout ou en partie des contenus utilisés à des fins d’entrainement, sans disposer des droits et autorisations nécessaires.La Commission Européenne dans ses lignes directrices appellerait son personnel à « ne jamais reproduire directement les résultats d’un modèle d’IA générative dans des documents publics, comme lors de la création de textes de la Commission, notamment ceux qui sont juridiquement contraignants ». La Commission envisagerait donc une utilisation uniquement à des fins internes, sans communication au public.   A noter que, selon nous, cette recommandation, volontairement stricte à des fins de sécurité juridique, pourrait être adaptée en fonction (i) de la nature des résultats générés, (ii) de l’usage des IA et de la destination de leurs résultats, et (iii) des garanties apportées par l’éditeur.     A titre d’exemple : concernant les IA génératives de codes, le risque pourrait être minoré par le recours à des outils de scans et d’administration des licences open source, afin d’identifier les composants soumis à licence libres et corrélativement de s’assurer du respect des licences concernées, de leur éventuel caractère contaminant, voire de la modification du code généré aux fins de suppression des composants concernésune réutilisation y compris à des fins commerciale serait possible dans l’hypothèse où l’entreprise disposerait de garanties de la part de l’éditeur en cas de recours de tiers en lien avec les contenus générés, ce que certains éditeurs d’IA génératives (notamment Adobe) semblent désormais prêts à proposer à leurs clients.
Indisponibilité : Les systèmes d’IA génératives étant le plus souvent accessibles en ligne, il peut y avoir un délai de réponse long ou une indisponibilité de l’outil à n’importe quel moment.La Commission Européenne dans ses lignes directrices appellerait son personnel à ne jamais s’appuyer sur ces outils pour les tâches critiques et urgentes.

Ces politiques devront être conçues comme des documents évolutifs, et être tenues à jour en fonction des évolutions technologiques et des interventions règlementaires à venir, notamment de la législation sur l’intelligence artificielle (AI Act).

—————–

Source : Article Euractiv « La Commission européenne publie des lignes directrices internes sur l’IA générative »