Les entreprises canadiennes qui veulent en savoir plus sur l’utilisation de renseignements personnels dans le cadre de l’entraînement et du déploiement de modèles d’intelligence artificielle (IA) pourraient trouver utile de consulter la publication Opinion 28/2024 (publiée en anglais seulement, et désignée sous le nom d’Avis dans le cadre de cet article) du Comité européen de la protection des données (EDPB). Cet Avis aborde quatre questions clés :
(1) Dans quelles conditions et par quels moyens un modèle d’IA peut-il être considéré comme « anonyme »?;
(2) Comment les responsables du traitement peuvent-ils démontrer que le fondement juridique du traitement des données est adéquat lors du développement (entraînement) du modèle?;
(3) Comment s’assurer de la conformité juridique du traitement des données lors de l’utilisation du modèle déployé?; et
(4) Quelles conséquences un traitement illicite de renseignements personnels durant la phase de développement peut-il avoir sur l’exploitation ultérieure du modèle? Par exemple, qu’advient-il des modèles d’IA développés à partir de techniques juridiquement contestables comme le « moissonnage de données » (en anglais « web scraping ») et de ceux qui les utilisent?
En l’absence d’un cadre législatif contraignant sur l’IA au Canada, l’Avis 28/2024 (bien qu’il vise à fournir des clarifications sur l’application du Règlement général sur la protection des données (RGPD) de l’Union européenne (UE) aux technologies d’intelligence artificielle (IA) et à guider les décisions des autorités européennes de protection des données) fournit une analyse pertinente des enjeux, propose des définitions utiles pour la rédaction d’addendas sur la protection des données et d’autres documents de nature transactionnelle, et suggère des mesures concrètes pour atténuer les risques liés à l’utilisation de l’IA.
- Anonymat des modèles d’IA
Du point de vue de la protection de la vie privée, la principale question concernant les modèles d’IA est de déterminer s’ils contiennent des renseignements personnels, que ce soit lors de leur entraînement ou de leur déploiement. Si c’est le cas, ils relèvent du cadre réglementaire et doivent respecter les lois sur la protection des renseignements personnels et de la vie privée. L’Avis 28/2024 examine à quel moment les renseignements personnels intégrés dans un modèle d’IA cessent d’être identifiables. L’Avis souligne que, même si un modèle d’IA n’a pas été explicitement conçu pour générer des informations sur une personne identifiable, des renseignements personnels peuvent néanmoins rester « absorbées » dans ses paramètres.
Dans le RGPD (et dans les lois canadiennes équivalentes), la définition des renseignements personnels est large. Elle englobe les cas où des informations peuvent permettre d’identifier indirectement une personne, même si elles ont été codées ou masquées. Cette définition est particulièrement pertinente pour les modèles d’IA, car certaines techniques, comme l’inférence d’appartenance ou l’interrogation, permettent d’extraire des renseignements personnels d’un modèle. Ces données sont considérées comme des renseignements personnels et placent ainsi le modèle sous le régime des lois sur la protection de la vie privée. Les organisations qui développent ou acquièrent des modèles doivent donc se méfier des affirmations selon lesquelles ces modèles seraient « anonymes » et ne nécessiteraient pas de se conformer aux lois sur la protection de la vie privée.
Le EDPB recommande d’évaluer l’anonymat des modèles d’IA au cas par cas, en vérifiant notamment :
- Qu’aucun renseignement personnel utilisé dans le cadre de l’entraînement du modèle ne peut être extraite par des moyens raisonnables;
- Que les résultats générés par le modèle ne permettent pas d’identifier les personnes dont les données ont été utilisées.
Lors de cette évaluation, l’Avis 28/2024 rappelle aux responsables du traitement de tenir compte des autres exigences légales en matière d’anonymisation (par exemple, la réglementation québécoise sur l’anonymisation des renseignements personnels). Lors de l’évaluation de l’anonymat, l’Avis préconise une approche contextuelle, prenant en considération tous les moyens raisonnablement susceptibles d’être utilisés pour la réidentification. Enfin, l’Avis insiste sur la nécessité d’évaluer non seulement le risque d’identification par le responsable du traitement, mais aussi par d’« autres personnes », notamment des tiers non autorisés ayant accès au modèle.
Le EDPB souligne que l’évaluation de l’anonymat des modèles d’IA est un processus continu qui nécessite une vigilance et une réévaluation complète régulière.
- Fondement juridique du traitement dans les phases de développement et de déploiement
L’Avis 28/2024 porte principalement sur l’évaluation de l’intérêt légitime en tant que fondement juridique applicable aux responsables du traitement qui utilisent des renseignements personnels dans des modèles d’IA, en mettant l’accent sur la phase de développement. Contrairement au cadre européen, les lois canadiennes sur la protection de la vie privée ne prévoient pas cette base juridique, car elles sont fondées sur le consentement. Le concept le plus proche de l’« intérêt légitime » en droit canadien serait le « consentement implicite » associé à une finalité raisonnable, bien que ces deux notions ne soient pas parfaitement équivalentes.
Cela étant dit, le critère présenté dans l’Avis s’aligne en grande partie sur celui appliqué au Canada. Les responsables du traitement doivent identifier clairement l’intérêt légitime poursuivi (l’objectif), qu’il s’agisse du leur ou de celui d’un tiers, et procéder à une évaluation des intérêts légitimes. Voici les trois étapes essentielles d’une telle évaluation :
- Définition de l’intérêt légitime : S’assurer que l’objectif poursuivi est légal, clairement formulé, réel et actuel.
- Analyse de la nécessité du traitement : Évaluer si le traitement des renseignements est indispensable à la réalisation de cet intérêt légitime.
- Vérification de l’absence d’atteinte aux droits fondamentaux : La troisième étape consiste à déterminer si le traitement ne porte pas atteinte aux droits fondamentaux des personnes concernées. Pour ce faire, il convient d’examiner la nature des données traitées, le contexte du traitement, les risques identifiés, les conséquences potentielles et la probabilité qu’elles se manifestent et les attentes raisonnables des personnes concernées.
L’Avis propose des mesures d’atténuation susceptibles de limiter les risques de non-conformité à ces étapes, notamment :
- Des solutions techniques telles que la pseudonymisation et le masquage des données;
- Des mesures visant à faciliter l’exercice des droits des personnes concernées, telles que la mise en place d’options de retrait ou l’instauration d’un délai raisonnable entre la collecte et l’utilisation des données;
- Une transparence accrue par le biais d’une meilleure communication sur l’utilisation des données;
- Des mesures visant à limiter l’extraction de données sur le Web, afin de restreindre la collecte de données auprès de certaines sources;
- Des mesures techniques dans la phase de déploiement pour empêcher le stockage, la réutilisation ou la génération de renseignements personnels.
Enfin, les attentes raisonnables des personnes concernées jouent un rôle important dans cette évaluation. Plusieurs critères permettent de déterminer si une personne peut raisonnablement s’attendre à ce que ses renseignements personnels soient traitées dans un modèle d’IA, notamment : (a) le caractère public des données (au Canada, le terme « accessible au public » est strictement défini et encadré); (b) la nature de la relation entre la personne et le responsable du traitement; (c) la nature du service concerné; (d) le contexte de la collecte des données; (e) la source des données; (f) les usages potentiels ultérieurs du modèle d’IA; et (g) la prise de conscience réelle de la personne quant à la présence de ses données en ligne.
- Développement illégal d’un modèle d’IA
L’Avis 28/2024 examine trois scénarios dans lesquels le développement d’un modèle d’IA pourrait compromettre son déploiement en raison de l’utilisation de renseignements personnels traités illégalement : (A) les données sont conservées dans le modèle d’IA et traitées ultérieurement par le même responsable du traitement; (B) les données sont conservées dans le modèle d’IA, mais traitées par un autre responsable du traitement lors du déploiement; et (C) le responsable du traitement veille à anonymiser entièrement le modèle avant tout traitement ultérieur de renseignements personnels.
Fait intéressant, dans le scénario (C), si le modèle a été développé à partir de renseignements personnels traités de manière illicite, mais qu’il est ensuite anonymisé de manière rigoureuse, son déploiement devient acceptable.
Le EDPB précise que la légalité du traitement des renseignements personnels doit être évalué au cas par cas. Cette évaluation doit tenir compte à la fois des activités de traitement initiales et ultérieures. Si des données ont été traitées illégalement à un quelconque stade, des mesures correctives, comme la suppression des données, peuvent être nécessaires pour assurer la conformité et prévenir tout traitement illicite ultérieur. Lorsqu’un traitement ultérieur est envisagé, plusieurs éléments doivent être pris en compte dans l’évaluation, notamment le fondement juridique du traitement, y compris la justification d’un intérêt légitime, et les risques pour les personnes concernées, car tout traitement illégal pourrait avoir une incidence sur la légitimité des actions subséquentes.
Si les données sont anonymisées conformément au RGPD et qu’aucun renseignement personnel n’est traité au cours des phases suivantes, le RGPD peut ne plus s’appliquer, ce qui signifie que l’illégalité du traitement initial n’affecterait pas le traitement ultérieur. Toutefois, il incombe aux responsables du traitement de prouver la conformité de leurs actions et de s’assurer du respect des obligations en matière de protection des données tout au long de leur cycle de vie.
Rappel canadien
L’Avis du EDPB et les lois canadiennes sur la protection de la vie privée insistent sur l’importance d’un traitement des renseignements personnels transparent et conforme à la loi. Bien que la réglementation canadienne ne traite pas spécifiquement de l’IA, elle s’applique dès que des renseignements personnels sont utilisés à toute étape du développement ou de déploiement d’un modèle d’IA.
Au Québec, la Loi sur la protection des renseignements personnels dans le secteur privé (Loi sur le secteur privé) et le Code civil du Québec intègrent plusieurs principes soulevés dans l’Avis. Plus précisément, ces lois exigent que les organisations ne collectent des renseignements personnels que pour des motifs légitimes et sérieux. De plus, la Loi sur le secteur privé limite la collecte de renseignements personnels à ce qui est strictement nécessaire aux fins prévues.
De son côté, la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) ne traite pas directement de l’IA, mais encadre néanmoins la collecte, l’utilisation et la conservation des renseignements personnels. Son approche repose sur des principes similaires à ceux du RGPD, notamment la responsabilité, le consentement, la limitation de la finalité et la conservation des données.
Enfin, en écho aux préoccupations du EDPB sur l’anonymat des modèles d’IA, la LPRPDE et la Loi sur le secteur privé prévoient qu’une fois les renseignements personnels anonymisés, les obligations en matière de protection de la vie privée cessent de s’appliquer, ouvrant ainsi la voie à l’utilisation plus souple de ces informations.
Mesures concrètes que les entreprises doivent prendre
Pour gérer efficacement les systèmes d’IA tout en assurant le respect des lois sur la protection de la vie privée, les responsables du traitement doivent mettre en place un programme complet de gouvernance de l’IA. Bien que cette exigence ne soit pas explicitement imposée par les lois canadiennes en l’absence de réglementation spécifique sur l’IA, son absence compliquera considérablement la démonstration de la conformité lorsqu’un modèle d’IA traite des renseignements personnels. Un tel programme de gouvernance devrait inclure des procédures claires pour examiner les cas d’utilisation de l’IA et garantir que chaque projet fasse l’objet d’une évaluation rigoureuse. Ce processus repose notamment sur l’application de pratiques de minimisation des données, une sélection rigoureuse des sources de données utilisées pour entraîner le modèle, des techniques de préparation des données avancées et la résilience du modèle face aux attaques par inférence. Par ailleurs, les responsables du traitement doivent faire preuve de transparence en documentant de manière détaillée les affirmations d’anonymisation, l’évaluation des fondements juridiques du traitement, l’analyse des risques, l’évaluation de l’incidence sur la protection de la vie privée et les registres attestant des mesures de sécurité mises en place.
Les entreprises et organisations souhaitant utiliser des renseignements personnels pour le développement ou le déploiement de modèles d’IA devraient également adopter des stratégies de protection des données, telles que la minimisation des données, l’anonymisation, la pseudonymisation, et l’utilisation de technologies préservant la vie privée. Elles devraient également mettre en place des mécanismes de contrôle des droits individuels sur les données (bien que leur application puisse être complexe dans bien des contextes), ce qui permettrait d’améliorer la transparence et la responsabilité. Enfin, des restrictions sur les pratiques de « moissonnage de données » (en anglais « web scraping ») devraient également être mises en place pour protéger la confidentialité des données, conformément aux recommandations du Commissariat à la protection de la vie privée du Canada dans sa Déclaration commune finale sur l’extraction de données et la protection des renseignements personnels.
Pour obtenir de plus amples renseignements sur le sujet, veuillez communiquer avec Kirsten Thompson, Charles Giroux ou un autre membre du groupe Cybersécurité et protection de la vie privée et des renseignements personnels de Dentons.