Le resserrement du projet de loi sur la protection de la vie privée réclamé à Ottawa

Jim Bronskill, La Presse Canadienne
Le resserrement du projet de loi sur la protection de la vie privée réclamé à Ottawa

OTTAWA — Une coalition qui milite en faveur d’une meilleure réglementation de la reconnaissance faciale et d’autres technologies de surveillance biométrique affirme que le projet de loi du gouvernement fédéral sur la protection de la vie privée a «cruellement besoin d’amendements importants».

Dans une lettre ouverte adressée mercredi au ministre de l’Industrie François-Philippe Champagne, la Coalition Right2YourFace prévient que l’utilisation de la technologie de reconnaissance faciale menace les droits de la personne, les principes d’équité et les libertés fondamentales, y compris le droit à la vie privée.

Les outils de reconnaissance faciale peuvent permettre de comparer l’image du visage d’une personne à une base de données de photos dans le but d’identifier l’individu. La coalition affirme que la technologie peut donner lieu à des résultats biaisés ou erronés, créant ainsi un risque de fausses identifications.

La lettre est signée par des représentants de l’Association canadienne des libertés civiles, du Groupe de surveillance des libertés civiles internationales, du Conseil canadien de la protection de la vie privée et de l’accès et plusieurs autres.

La coalition affirme que le projet de loi C-27, actuellement devant le Parlement, ne parvient pas à remédier aux méfaits posés par les outils de reconnaissance faciale, alors que les entreprises et les agences gouvernementales adoptent des systèmes d’intelligence artificielle (IA) à un rythme de plus en plus rapide.

«L’IA n’est ni artificielle ni intelligente, et son utilisation est largement non réglementée», a rappelé Sharon Polsky, du Conseil de la vie privée et de l’accès, lors d’une conférence de presse mercredi.

«La recherche a confirmé à plusieurs reprises que les résultats de la reconnaissance faciale ne sont pas fiables, et pourtant, des centaines de millions de dollars sont dépensés chaque année par les municipalités, les aéroports, les commerçants, les écoles et, bien sûr, les forces de l’ordre, qui intègrent de plus en plus de systèmes d’IA et de reconnaissance faciale pour plus de sécurité.»

Le profit plutôt que la vie privée?

Les libéraux ont présenté l’année dernière une loi sur la protection de la vie privée pour donner aux Canadiens plus de contrôle sur la manière dont leurs données personnelles sont utilisées par des entités commerciales. Le projet de loi imposerait également des amendes aux organisations non conformes et introduirait de nouvelles règles pour l’utilisation de l’intelligence artificielle.

La coalition s’inquiète du manque de discussion sur les implications «troublantes du projet de loi pour la reconnaissance faciale», a déclaré Daniel Konikoff, directeur par intérim du programme de protection de la vie privée, de technologie et de surveillance à l’Association canadienne des libertés civiles.

La lettre indique que la section relative à la confidentialité du projet de loi devrait inclure des dispositions spéciales pour les informations sensibles et fournir explicitement une protection renforcée des détails biométriques, tels que les données faciales, les empreintes digitales et les schémas vocaux, qui peuvent impliquer des risques particuliers de préjugés raciaux et sexistes.

La coalition craint qu’une disposition du projet de loi autorisant la collecte d’informations à des fins commerciales légitimes à l’insu ou sans le consentement de l’utilisateur ne soit trop large, privilégiant le profit au détriment de la vie privée.

Le gouvernement affirme que les éléments du projet de loi sur l’intelligence artificielle visent à protéger les Canadiens en garantissant que des systèmes d’IA à fort impact sont développés et déployés de manière à identifier, évaluer et réduire les risques de préjudice et de partialité.

Le projet de loi créerait également un commissaire à l’IA et aux données chargé de surveiller la conformité des entreprises, d’ordonner des audits par des tiers et de partager des informations avec d’autres régulateurs.

La coalition s’inquiète du fait que le projet de loi ne comporte aucune définition de ce qui est considéré comme ayant un impact élevé, laissant à la réglementation ce qu’elle considère comme une étape cruciale. Une définition des systèmes à fort impact, incluant la technologie de reconnaissance faciale et d’autres outils d’identification biométrique, doit être incluse dans le projet de loi lui-même, indique la lettre.

Le mois dernier, M. Champagne a écrit au comité de la Chambre des communes sur l’industrie et la technologie, qui étudie le projet de loi, pour dire que le gouvernement était prêt à travailler avec les députés pour élaborer des amendements visant à définir des catégories de systèmes à fort impact.

Parmi les catégories que M. Champagne propose d’inclure figure l’utilisation de l’IA pour traiter des informations biométriques dans le but d’identifier une personne sans son consentement, ou pour déterminer le comportement ou l’état d’esprit d’un individu.

La coalition n’a pas vu «à quoi ressembleraient ces amendements concrets», a indiqué M. Konikoff.

«Le diable est dans les détails, mais nous n’avons aucun détail ici», a-t-il déploré.

Moratoire

En octobre de l’année dernière, le comité des Communes sur l’information, la vie privée et l’éthique a demandé un moratoire sur l’utilisation des outils de reconnaissance faciale par la police fédérale et les entreprises canadiennes, à moins d’autorisation du tribunal ou de contribution de l’organisme de surveillance de la vie privée.

Le comité a également exhorté le gouvernement à élaborer un cadre réglementaire concernant les utilisations, les interdictions, la surveillance et la confidentialité de l’outil émergent.

Partager cet article
S'inscrire
Me notifier des
guest
0 Commentaires
Inline Feedbacks
Voir tous les commentaires