You need to be logged in to view this content. Veuillez Log In. Not a Member? Nous Rejoindre
Le mois d’avril n’est pas en reste sur le sujet de l’Intelligence Artificielle (IA), il est certain que ce sujet prend de plus en plus d’importance dans notre société, dans notre tissu économique et donc dans ce bulletin. Car en effet, l’IA progresse et avec elle les interrogations sur son encadrement technique, juridique et éthique. Au regard de ces capacités qui évoluent très rapidement, il était évident que la question de la protection des données personnelles se pose.
En tant qu’autorité de contrôle nationale, la CNIL ne pouvait pas ignorer cette évolution majeure. Depuis presque 2 ans elle a mis en place une section spéciale dédiée à l’IA, des consultations publiques, des bacs à sable, etc. Aujourd’hui elle « accouche » de ces premières recommandations et commence doucement à coordonner la construction d’une IA respectueuse de la vie privée dès la conception !
Dans ces premières recommandations sorties début avril, la CNIL s’attaque tout d’abord à la phase de développement d’un système d’IA qui comprend la conception du système, la constitution de la base de données et l’apprentissage.
Son objectif est de permettre de réfléchir aux enjeux de protection des données personnelles en amont de la conception du système. Pour cela, elle interroge le lecteur ou le concepteur sur chaque élément essentiel constituant un traitement de données personnelles conforme aux exigences du RGPD.
La fiche 1 permet de comprendre les systèmes d’IA concernés par la conformité au RGPD. En résumé, la CNIL considère qu’il existe 3 de systèmes d’IA concernés :
Les données personnelles se situent donc dans les bases de données utilisées pour entraîner les systèmes d’IA et cet entrainement peut intervenir pendant la conception, pendant l’utilisation ou même les deux.
La fiche 2 permet de définir la finalité du système d’IA afin de cadrer et de limiter les données personnelles utilisées pour l’entraînement du système. La CNIL profite de cette fiche pour contredire certaines objections. En effet, il est parfois entendu que définir une finalité est incompatible avec l’IA car cette dernière peut développer des caractéristiques non anticipées. Cependant, la CNIL considère que la finalité d’un système d’IA doit être adaptée à son contexte et donne ainsi des exemples :
La fiche 3 permet de déterminer les responsabilités au sens du RGPD dans un projet de conception d’un système d’IA. Autrement dit, il s’agit de déterminer le rôle des acteurs du projet : responsable de traitement, sous-traitant ou co-responsables.
En pratique, le règlement sur l’IA définit de son côté deux types d’acteurs :
Contrairement à ce qu’on pourrait penser les responsabilités au sens du RGPD ne s’attribuent pas arbitrairement à l’un ou l’autre rôle définit par le règlement sur l’IA. Tout dépend de l’analyse qui est faite de chaque cas. Il faut donc interroger le rôle définit par le règlement sur l’IA à la lumière des définitions du RGPD. Cette fiche comprend des exemples proposés par la CNIL afin de pouvoir plus facilement déterminer votre rôle et donc vos responsabilités.
La fiche 4 permet d’établir la base légale la plus adaptée au système d’IA. Dans cette recommandation la CNIL apporte des précisions sur certaines bases légales mais le message principal est qu’il n’existe pas de base légale prédominante pour les systèmes d’IA, il faut pouvoir choisir la plus adaptée au projet et toujours être en capacité de la démontrer ou de la justifier.
Cette fiche 4 met également en avant une notion importante, celle de la réutilisation de certaines données personnelles. La CNIL y distingue plusieurs cas de figure :
Par cette fiche, la CNIL insiste particulièrement sur la compatibilité de la réutilisation des données et sur la licéité des traitements précédents non-réalisés par le fournisseur qui réutilise lesdites données car les responsabilités ne disparaissent pas pour autant.
La fiche 5 rappelle l’importance voire la nécessité de réaliser une analyse d’impact sur la protection des données (ou AIPD) dans le cadre de la conception de systèmes d’IA. La CNIL rappelle les critères permettant de savoir si une AIPD doit être réalisée, mais surtout elle intègre un nouveau critère apporté par le règlement sur l’IA : le risque ! La CNIL considère que pour le développement des systèmes d’IA dits à « haut risque » par le règlement sur l’IA et impliquant des données personnelles, la réalisation d’une AIPD est en principe nécessaire.
Les fiches 6 et 7 s’attardent sur le principe de minimisation des données utilisées par les systèmes d’IA car au regard de leur volume important qui n’empêche pas que ces données personnelles doivent être adéquates, pertinentes et limitées à ce qui est nécessaire. Mais qui s’attardent également sur le principe de limitation de conservation des données personnelles.
Dans cette fiche la CNIL insiste particulièrement sur le fait de rechercher les techniques pour atteindre l’objectif visé nécessitant le moins de données personnelles possibles. Ainsi elle met en avant les différents choix de protocoles, les choix de conception, la consultation de comité éthique, des techniques de collecte de données différentes, etc.
A travers ces recommandations, la CNIL démontre que le RGPD n’est pas un obstacle à l’innovation que peut apporter les systèmes d’IA et qu’il est possible voire crucial d’innover dans le respecte des données personnelles et de la vie privée pour une IA éthique ! Le règlement sur l’IA ou IA Act n’a pas vocation à remplacer le RGPD, bien au contraire, il va le compléter ! C’est d’ailleurs ce qu’explique en détails M. DAUTIEU, Directeur de l’accompagnement juridique de la CNIL.
La CNIL compte poursuivre ces travaux avec des recommandations sur la phase de déploiement d’un système d’IA dès que possible.
Consultez ici l’intégralité de l’arrêt de la CJUE : IA : la CNIL publie ses premières recommandations sur le développement des systèmes d’intelligence artificielle, 8 avril 2024
You need to be logged in to view this content. Veuillez Log In. Not a Member? Nous Rejoindre
You need to be logged in to view this content. Veuillez Log In. Not a Member? Nous Rejoindre
You need to be logged in to view this content. Veuillez Log In. Not a Member? Nous Rejoindre