Aller au contenu
LCJC - Comité permanent

Affaires juridiques et constitutionnelles


LE COMITÉ SÉNATORIAL PERMANENT DES AFFAIRES JURIDIQUES ET CONSTITUTIONNELLES

TÉMOIGNAGES


Ottawa, le mercredi 29 octobre 2025

Le Comité sénatorial permanent des affaires juridiques et constitutionnelles se réunit aujourd’hui, à 16 h 15 (HE), avec vidéoconférence, afin d’examiner le projet de loi S-209, Loi limitant l’accès en ligne des jeunes au matériel pornographique.

Le sénateur David M. Arnot (président) occupe le fauteuil.

[Traduction]

Le président : Bonsoir, mesdames et messieurs les sénateurs. Je déclare ouverte cette réunion du Comité sénatorial permanent des affaires juridiques et constitutionnelles. Je m’appelle David Arnot. Je suis sénateur de la Saskatchewan et président de ce comité.

J’invite mes collègues à se présenter.

La sénatrice Batters : Sénatrice Denise Batters, de la Saskatchewan.

[Français]

La sénatrice Miville-Dechêne : Julie Miville-Dechêne, du Québec.

[Traduction]

Le sénateur Tannas : Scott Tannas, de High River en Alberta.

Le sénateur Prosper : Paul Prosper, de la Nouvelle-Écosse et du territoire Mi’kma’ki.

Le sénateur K. Wells : Kristopher Wells, de l’Alberta et du territoire visé par le Traité no 6.

La sénatrice Simons : Paula Simons, de l’Alberta et aussi du territoire visé par le Traité no 6.

La sénatrice Pate : Kim Pate, et je vis ici sur le territoire non cédé de la nation algonquine anishinabe.

[Français]

La sénatrice Clement : Bernadette Clement, de l’Ontario.

La sénatrice Saint-Germain : Raymonde Saint-Germain, du Québec.

[Traduction]

Le sénateur Dhillon : Baltej Dhillon, de la Colombie-Britannique.

Le président : Honorables sénateurs, nous nous réunissons pour poursuivre notre étude du projet de loi S-209, Loi limitant l’accès en ligne des jeunes au matériel pornographique.

Dans le cadre de notre premier groupe de témoins, nous sommes heureux d’accueillir, par vidéoconférence, Mme Julie Inman Grant, la commissaire à la sécurité en ligne de l’Australie. Notre deuxième témoin est M. Tobias Schmid, directeur de l’Autorité des médias de Rhénanie-du-Nord-Westphalie et commissaire des affaires européennes de la Conférence des directeurs des autorités allemandes des médias. Je vous souhaite la bienvenue et vous remercie de vous joindre à nous.

Nous commencerons par les déclarations préliminaires. Nous entendrons d’abord Mme Inman Grant, puis ce sera au tour de M. Schmid. Je demanderais aux deux témoins de prendre la parole pendant environ cinq minutes pour résumer leurs arguments, après quoi nous passerons aux questions des sénateurs.

Julie Inman Grant, commissaire, Commissaire à la sécurité en ligne de l’Australie : Merci beaucoup, monsieur le président, et merci au comité de m’accueillir. Vous n’avez qu’à lever votre main si je dépasse le temps imparti. Je veux m’assurer de donner rapidement au comité un aperçu de ce que nous faisons et de la manière dont nous le faisons.

Je vous remercie encore une fois de m’avoir invitée à parler du rôle de premier plan que joue l’Australie dans la protection des enfants en ligne et de l’approche holistique et multidimensionnelle que nous employons pour nous acquitter de cette importante mission.

Depuis nos débuts, en 2015, notre cadre réglementaire a toujours mis l’accent sur la protection des enfants. Au début, il s’agissait surtout de protéger les enfants contre l’intimidation en ligne et le fléau que sont l’exploitation sexuelle des enfants et le contenu mettant en scène des agressions.

Or, après seulement deux ans, notre mandat s’est élargi pour couvrir tous les Australiens et, en 2022, la Online Safety Act — la troisième réforme en la matière — est entrée en vigueur, ce qui a représenté un tournant historique qui a élargi à la fois nos pouvoirs et nos responsabilités.

Pour la première fois, les attentes envers les fournisseurs de services en ligne étaient clairement définies. Ils ne pouvaient plus prétendre que la sécurité des utilisateurs était le problème de quelqu’un d’autre. Ils devraient dorénavant assumer la responsabilité des préjudices attribuables à leurs plateformes et services.

Nous avons toujours adopté une approche fondée sur le risque et le préjudice. Cela signifie que nous ciblons les menaces les plus graves et que nous le faisons de manière raisonnable et juste, en nous appuyant sur des données probantes.

L’Australie est également l’un des rares pays au monde à fournir une aide concrète à ses citoyens lorsqu’ils sont victimes de préjudices en ligne. Nous le faisons à l’aide de nombreux mécanismes de plainte, dont un pour les adultes victimes de cyberviolence, un pour les enfants victimes de cyberintimidation, et un autre pour les contenus illégaux et non autorisés, dont l’incitation à la violence. Comme vous pouvez l’imaginer, mon équipe s’est penchée sur la vidéo de l’assassinat de Charlie Kirk, celle de l’agression au couteau contre un étudiant ukrainien et, hélas, celle de la décapitation d’un gérant d’hôtel à Dallas. Ces vidéos sont devenues virales sur toutes les plateformes grand public. Malheureusement, les plateformes ont très mal géré l’utilisation des étiquettes — ou ce que nous appelons des interstitiels — afin de flouter les images et protéger les enfants de contenus qu’ils pourraient voir accidentellement, mais qu’il leur serait ensuite impossible d’oublier.

Nos mécanismes de plainte nous ont aussi permis d’atteindre un taux de réussite de 98 % au chapitre de l’élimination du partage non consensuel d’images et de vidéos intimes. Cela inclut la violence fondée sur des images hypertruquées. On parle souvent de « porno-vengeance ». Nous n’utilisons pas ce terme, car il revient à blâmer la victime. De quoi se venge-t-on au juste? Aussi, ce terme banalise le préjudice alors que nous savons que cette forme de violence peut être très dénigrante et humiliante, en particulier pour les jeunes. Nous constatons également que les hypertrucages sont tellement hyperréalistes de nos jours, qu’il est difficile de faire la différence entre ce qui est réel et ce qui ne l’est pas. Nous qualifions donc cette pratique, qui se produit presque chaque semaine dans les écoles australiennes, de « violence fondée sur des images hypertruquées ».

Il s’agit là d’un aspect extrêmement important de notre travail, qui nous permet d’apporter une aide précieuse aux Australiens qui traversent une crise en ligne. Cela dit, nous savons que cela ne traite que des symptômes et ne permet pas de trouver une solution. C’est là que nos pouvoirs systémiques entrent en jeu : nous changeons ce qui se passe en ligne de l’intérieur, adoptons une approche écosystémique et prévenons les préjudices en imposant la responsabilité aux plateformes elles-mêmes, évaluons les risques et les préjudices et intégrons des paramètres de sécurité dès la conception.

Je vais accélérer un peu, mais il est important que le comité sache que nous venons d’adopter huit codes qui s’appliquent à l’industrie. Ces codes obligeront un grand nombre de plateformes, des sites de jeux aux moteurs de recherche, en passant par les compagnons et les robots conversationnels alimentés à l’intelligence artificielle, à protéger les enfants de moins de 18 ans contre le matériel extrêmement violent, la pornographie violente, le contenu qui traite d’idées suicidaires et le matériel incitant à l’automutilation, y compris le contenu qui porte sur les troubles du comportement alimentaire. Certains de ces codes entreront en vigueur en décembre. Le code pour les moteurs de recherche en fait partie. Il obligera les moteurs de recherche — la recherche sécurisée étant souvent utilisée — à flouter les images de violence explicite, comme les vidéos dont je viens de parler, mais aussi la pornographie, afin que les enfants n’y soient pas exposés accidentellement, et que ce contenu ne soit pas affiché de manière flagrante.

Nos recherches ont révélé que près de 30 % des enfants australiens âgés de moins de 13 ans — généralement âgés de 9 à 10 ans — ne recherchent pas délibérément de la pornographie, mais tombent dessus en utilisant un simple moteur de recherche ou en jouant à des jeux. Ils décrivent cela comme étant « accidentel, non sollicité et flagrant ». Bien sûr, si vous êtes un adulte et que vous souhaitez accéder à un site pornographique pour adultes, il vous suffit de cliquer sur un lien.

Le code obligera également les plateformes à rediriger une personne qui recherche des informations précises sur des façons de se suicider vers le site d’un institut de santé mentale local plutôt que vers un site horrible qui décrit ces méthodes mortelles.

Mon temps de parole est probablement presque écoulé. Je sais que vous souhaitez sans doute en apprendre un peu plus sur notre mesure législative relative à l’âge minimal pour avoir accès aux réseaux sociaux. Elle entrera en vigueur le 10 décembre de cette année. Les plateformes de réseaux sociaux concernées devront alors prendre des mesures raisonnables pour empêcher les enfants de moins de 16 ans de se créer un compte.

Il ne s’agit pas d’une interdiction absolue. C’est pourquoi je dis que l’on retarde l’accès aux réseaux sociaux. Nous avons tenu compte de la vulnérabilité des jeunes utilisateurs sur le plan du développement, et avons choisi de faire passer l’âge minimal pour se créer un compte de 13 à 16 ans. L’objectif de cette mesure législative n’est pas de punir les parents ou les enfants. Nulle sanction n’est imposée aux utilisateurs. La responsabilité incombe plutôt aux plateformes, qui doivent faire mieux.

Les recherches que nous avons menées l’année dernière ont révélé que 84 % des enfants australiens âgés de 8 à 12 ans possédaient déjà un compte sur les réseaux sociaux. Lorsque nous leur avons parlé, environ 90 % d’entre eux ont dit que leurs parents les avaient aidés à créer ces comptes. Je pense que c’est un dilemme auquel les parents sont confrontés partout dans le monde. Ils s’inquiètent des dangers que posent les réseaux sociaux, mais ils ne veulent pas que leurs enfants soient exclus.

Cette mesure entraînera un véritable changement normatif. Les parents pourront désormais dire : « Je ne t’empêche pas d’avoir accès aux réseaux sociaux ou d’avoir un téléphone intelligent. Ce n’est tout simplement pas encore possible, car le gouvernement estime que l’âge approprié pour le faire est 16 ans. Tu ne seras donc pas le seul dans cette situation. »

Il est vraiment important que les entreprises assument leurs responsabilités et mettent en place leurs propres conditions d’utilisation. Je le répète, bon nombre d’enfants âgés de 8 à 12 ans qui avaient déjà des comptes ont déclaré qu’ils ne s’étaient jamais vu interdire l’accès aux réseaux sociaux parce qu’ils étaient mineurs. On peut supposer que les entreprises ne devraient pas avoir trop de mal — étant donné qu’elles peuvent cibler la plupart d’entre nous avec une précision redoutable avec leurs publicités — à distinguer un enfant de 8 ans d’un enfant de 13 ans.

Je peux envoyer les directives réglementaires au comité. En bref, nous demandons aux entreprises de prendre des mesures raisonnables pour déterminer qu’un enfant a moins de 16 ans. D’ici le 10 décembre, ces entreprises devront désactiver ou supprimer les comptes des enfants de moins de 16 ans. Nous allons surveiller la situation.

Le gouvernement a mis à l’essai près de 50 technologies différentes de vérification de l’âge, non seulement pour en évaluer l’exactitude et la fiabilité, mais aussi pour s’assurer qu’elles préservaient la confidentialité. La plupart de ces technologies utilisaient une forme d’intelligence artificielle. Nous ne rendons pas exactement l’utilisation de cette technologie obligatoire. Nous savons que les entreprises connaissent mieux que nous leur bassin d’utilisateurs et leur propre infrastructure. Nous leur demanderons toutefois d’adopter une approche multidimensionnelle, de type « cascade », pour la vérification de l’âge. Cela signifie qu’elles doivent appliquer différentes mesures à différents moments du parcours de l’utilisateur, de l’inscription à l’activité sur le compte, et cela doit être soutenu par des mécanismes de contrôle clairs, accessibles et rapides. Elles n’ont pas le droit de demander explicitement une pièce d’identité délivrée par l’État ou de ne demander que cela. Là encore, elles doivent disposer de mécanismes de signalement par les utilisateurs en cas d’omission, et d’une procédure d’appel au cas où il y aurait un « verrouillage excessif » ou des comptes qui auraient été verrouillés par inadvertance.

Je terminerai en disant que la protection de la vie privée est un élément important. Ce projet de loi relèvera donc de deux organismes de réglementation. La commissaire à la protection de la vie privée de l’Australie a également publié des directives en la matière. Nous régirons cette mesure législative ensemble. Je m’occuperai de la mise en œuvre des mesures de sécurité et de vérification de l’âge, et la commissaire à la protection de la vie privée veillera à ce que l’on ne viole pas les dispositions de la loi sur la protection de la vie privée.

Je crois sincèrement que nous pouvons trouver le juste équilibre entre la protection de la vie privée et la sécurité; c’est impératif. Je pense également que nous ne pouvons plus faire autrement. Je reviens de la Silicon Valley, et la plupart des entreprises envisagent désormais de mettre en place un système de vérification de l’âge, y compris les plateformes de jeux et les entreprises comme Reddit. Cela s’explique par le fait qu’il existe un véritable mouvement mondial visant à protéger les enfants et à s’assurer qu’ils vivent des expériences adaptées à leur âge. Le Royaume-Uni, l’Irlande et la Commission européenne dans son ensemble se penchent également sur ces questions, ce qui oblige les entreprises à prendre des mesures en la matière.

Je terminerai en disant que nous étions le premier organisme de réglementation de la sécurité en ligne il y a dix ans, et que nous avons été le seul organisme en la matière pendant environ sept ans. Lorsque d’autres pays se sont lancés dans cette voie, nous avons créé un organisme : le Global Online Safety Regulators Network. Je suis heureuse de dire que Patrimoine canadien et nos collègues du Centre canadien de la protection de l’enfance, qui sont probablement parmi nos partenaires les plus précieux, sont des observateurs dans le cadre de l’élaboration de cette réglementation. Ainsi, ils pourront s’inspirer de ce que nous faisons et vice versa.

Merci beaucoup. Je serai heureuse de répondre aux questions le moment venu.

Le président : Je vous remercie, madame Inman Grant. Je donne maintenant la parole à M. Schmid pour environ cinq minutes.

Tobias Schmid, directeur de l’Autorité des médias de Rhénanie-du-Nord-Westphalie et commissaire des affaires européennes de la Conférence des directeurs des autorités allemandes des médias : Monsieur le président, honorables sénateurs, je tiens tout d’abord, bien sûr, à vous remercier de m’avoir invité. C’est un honneur pour moi de vous présenter le point de vue et l’expérience de l’Allemagne dans ce domaine.

J’ai un bref commentaire d’ordre administratif. Je vais vous donner quelques exemples tirés de la Rhénanie-du-Nord-Westphalie, et ce, pour une raison très simple : c’est la région dont je suis responsable. Il convient toutefois de vous dire que toutes les mesures que nous adoptons dans une région s’appliquent toujours aussi dans l’ensemble du pays.

J’en viens maintenant à la question qui nous occupe. La façon de trouver la bonne approche juridique pour protéger les mineurs en ligne est une question très compliquée et souvent chargée d’émotions. Mais pourquoi est-elle si importante?

La réponse est très simple. Nos études montrent que les mineurs passent 3 heures et 21 minutes par jour en ligne. Nous devons prendre conscience que le monde virtuel fait partie de leur réalité. On pourrait dire qu’ils quittent la maison pour la première fois et intègrent une partie de leur vie dans le monde virtuel généralement vers l’âge de 10 ans.

Dans cette réalité, les enfants sont confrontés à différents contenus, y compris à la pornographie. Selon certaines statistiques, 47 % des enfants ont déjà vu du contenu pornographique. Ce qu’il faut retenir, c’est que les enfants ont en moyenne 13 ans lorsqu’ils sont exposés pour la première fois à la pornographie. Il est également important, je pense, de savoir que 56 % des enfants ont déclaré avoir vu des contenus pornographiques qu’ils auraient préféré ne pas voir. Un dernier chiffre très impressionnant est que 75 % des enfants pensent que ce qu’ils voient sur les plateformes pornographiques reflète la réalité.

Cela nous amène à notre premier argument, qui, de notre point de vue, est le point central. Je tiens toutefois à préciser une chose. Il va sans dire que le problème n’est pas la pornographie ou la consommation de la pornographie chez les jeunes adultes. Ce dont nous devons nous préoccuper, c’est la manière de protéger les enfants de plus ou moins 13 ans et de les empêcher d’être exposés à quelque chose qu’ils ne sont manifestement pas tout à fait capables de replacer dans le bon contexte social.

Quelle est la situation générale en Allemagne? C’est très simple. Depuis 2003, la loi stipule que le contenu pornographique est légal dans les services numériques si le fournisseur a affirmé que ce contenu n’est acceptable que pour des adultes. Par conséquent, chaque fournisseur de contenu doit créer des groupes d’utilisateurs fermés.

L’une des mesures mises en place à cet effet est le système de vérification de l’âge. Les organismes de réglementation des médias en Allemagne évaluent depuis des années ces systèmes de vérification de l’âge, un peu comme l’a décrit notre collègue australienne. Nous avons évalué et approuvé une centaine de systèmes différents.

C’est pourquoi la situation juridique est somme toute très simple. Qu’en est-il dans les faits? Je peux vous décrire un cas intéressant, qui l’est aussi du point de vue canadien. En 2019, l’Autorité des médias de Rhénanie-du-Nord-Westphalie a intenté des poursuites contre des fournisseurs de contenu diffusant du contenu pornographique sans toutefois respecter les règles juridiques en vigueur. Le plus important d’entre eux est Aylo, qui exploite les sites YouPorn et Pornhub. Dans les deux cas, il suffit de cliquer sur le bouton qui dit « Oui, j’ai 18 ans » pour accéder au contenu. Ce n’est pas un système de vérification de l’âge acceptable.

Aylo a été consultée et informée de ses obligations juridiques, mais n’a pas cessé d’exercer ses activités de cette manière. C’est pourquoi nous avons émis une ordonnance stipulant qu’elle ne pouvait pas poursuivre ses activités sur le marché allemand tant que ses sites Web ne seraient pas assortis de systèmes de vérification de l’âge.

Bien sûr, Aylo a interjeté appel de ces décisions devant un tribunal administratif. Le tribunal a jugé que l’ordonnance de l’autorité était légale. Une décision du Tribunal administratif supérieur est toujours en suspens. Or, il faut savoir que cet appel n’a pas d’effet suspensif. Aylo a le devoir de mettre en place un système de vérification de l’âge ou de cesser ses activités.

Aylo ne respecte ni la décision des autorités ni celle du tribunal. Elle poursuit ses activités. En 2024, nous avons donc émis des ordonnances aux fournisseurs de service Internet allemands leur enjoignant de bloquer les services de Pornhub et de YouPorn. Fait intéressant, Aylo a alors réagi en changeant seulement les adresses Web pour contourner le blocage. Nous passons donc à une nouvelle étape. Au cours des deux prochaines semaines, le législateur allemand modifiera la loi allemande sur les médias pour faire en sorte qu’à l’avenir, le blocage d’une page Internet bloque aussi toutes les pages miroirs, de sorte que la loi ne pourra plus être contournée.

Je crois que c’est un exemple important, non pas parce qu’il s’agit d’Aylo et du Canada, mais parce qu’il montre qu’en instaurant une mesure, il faut aussi prévoir comment l’exécuter et comment savoir si elle est efficace pour protéger les enfants.

En terminant, je mentionnerais deux petits points parce que, selon mon expérience, il existe des mythes classiques contre la vérification de l’âge. Le premier point est qu’il est possible de contourner cette mesure en utilisant un RPV, un réseau privé virtuel. C’est vrai. Bien sûr, on peut la contourner — plus ou moins tous les cadres juridiques peuvent être contournés —, mais ce qu’il faut se rappeler ici, c’est qu’on parle surtout de protéger les enfants de moins de 13 ans, et qu’ils ne s’intéressent pas au contournement. L’idée est de les empêcher de tomber sur du contenu qu’ils ne cherchent pas.

Le deuxième point est, comme ma collègue en a parlé, les enjeux liés à la protection de la vie privée. Oui, c’est un point intéressant, mais ici encore j’ai deux arguments. Le premier est, comme je l’ai mentionné, que nous avons 100 systèmes de vérification de l’âge sur le marché allemand et que le nombre de problèmes liés à la protection de la vie privée est exactement de zéro. Mon deuxième et dernier est que, oui, il peut y avoir des enjeux liés à la protection des données ou de la vie privée, comme ma collègue de l’Australie l’a mentionné, mais une fois de plus, la solution est simple. Les entreprises doivent respecter deux normes: protéger les mineurs et protéger la sécurité des données. C’est à l’industrie de gérer ce risque, et non à l’organisme de réglementation. Je suis convaincu que nous ne devons pas abaisser la norme pour la protection des mineurs juste parce que l’industrie en a une autre à respecter. Merci beaucoup.

Le président : Merci, monsieur Schmid.

La sénatrice Batters : Je vous remercie tous les deux d’être avec nous. Nous vous en sommes d’autant plus reconnaissants que vous êtes sur des fuseaux horaires très différents du nôtre et qu’une partie importante de notre étude porte sur les mesures prises ailleurs dans le monde pour s’attaquer à ce problème. Pour tout vous dire, plus j’entends ce que font d’autres pays, plus je comprends à quel point le Canada tire de l’arrière, alors je vous remercie de nous aider dans ce dossier.

J’aimerais d’abord poser une question à M. Schmid. En Allemagne, les systèmes de vérification de l’âge pour l’accès au contenu pornographique sont obligatoires depuis 2003. Après deux décennies, quelle est votre évaluation globale de l’efficacité de cette mesure pour limiter l’accès des mineurs à ce type de contenu dans votre pays?

M. Schmid : Oui, notre expérience en fin de compte, comme je l’ai mentionné, est, comme toujours... Je pense que c’est ou sera aussi l’expérience dans d’autres pays ou États. Premièrement, il faut se pencher sur la façon de respecter le cadre juridique. D’où l’importance du processus d’évaluation de tous les systèmes de vérification de l’âge, afin que l’industrie puisse acheter ceux qui sont approuvés.

Bien entendu, nous avons aussi des distributeurs de contenu pornographique sur le marché allemand, en interne, mais la totalité utilise un système de vérification de l’âge. Nous avons donc un marché parfait à l’interne. Malheureusement, nous nous trouvons dans une situation qui n’est pas homogène en raison des systèmes qui viennent de l’étranger, et en 2019, comme je l’ai mentionné, nous avons lancé une procédure pour faire appliquer la loi. En raison de la structure juridique européenne, bien sûr, il est un peu plus difficile d’y arriver.

Aylo, par exemple, possède une filiale basée à Chypre. C’est pourquoi la loi chypriote s’applique d’abord. Ce n’est que si Chypre n’intervient pas que l’autorité de régulation allemande peut procéder. Cela a pris un peu de temps, mais le processus est désormais clair. Je suis très optimiste que le système sera efficace, notamment grâce aux modifications de la loi allemande sur les médias à la fin de cette année.

Comme je l’ai dit, et c’est très important, le marché interne allemand fonctionne selon cette norme depuis des années et, encore une fois, sans aucun problème supplémentaire lié à la protection de la vie privée. C’est pourquoi j’aimerais terminer en ajoutant que nous devons faire très attention de ne pas tomber dans tous les pièges de complexité que tend l’industrie.

La sénatrice Batters : Oui, et certains ont fait valoir qu’un tel système serait techniquement difficile à mettre en œuvre ou pourrait échouer à grande échelle, mais l’Allemagne l’applique à l’échelle du pays depuis plus de 20 ans. Selon vous, quelles leçons le Canada peut-il tirer de votre expérience?

M. Schmid : La leçon la plus simple que nous avons apprise est que ce n’est pas un problème. La technologie existe. Il n’y a en réalité aucun problème en matière de protection des données et de la vie privée. Cela fonctionne. Le seul changement pour l’industrie est qu’elle gagne un peu moins d’argent parce qu’elle ne met pas les enfants en danger. Pour être honnête, la réponse la plus simple que je puisse vous donner est de le faire. Cela fonctionnera.

La sénatrice Batters : Vous avez abordé un peu un autre sujet, mais j’aimerais en savoir plus. Je tiens également à vous remercier pour les statistiques que vous nous avez fournies, car elles montrent clairement le caractère alarmant de la situation à laquelle nous faisons face. Cette statistique m’a particulièrement frappée : « Un répondant interrogé sur deux [...] a déclaré avoir vu dans la pornographie des choses qu’il aurait préféré ne pas voir. » Je pense que c’est ce que nous essayons d’éviter, à savoir que des enfants soient potentiellement très affectés par le type de choses qu’ils voient, sans doute involontairement.

Ma dernière question est la suivante : lorsqu’un site pornographique est hébergé à l’étranger, mais cible clairement le marché allemand, comment les autorités procèdent-elles concrètement pour faire respecter cette loi? Pourriez-vous décrire les différentes étapes, depuis la délivrance des ordonnances d’interdiction, par exemple, à l’encontre du fournisseur, jusqu’à l’intervention des services d’hébergement ou des fournisseurs d’accès Internet? Pourriez-vous également nous dire si ces mesures se sont avérées efficaces dans la pratique, en particulier dans les affaires portées devant les tribunaux, comme celle de MindGeek?

M. Schmid : Je vous remercie beaucoup pour cette question fort compliquée. Le point de départ est très simple. Le premier point de contact est toujours le fournisseur de contenu, c’est-à-dire l’entreprise qui distribue le contenu pornographique. Comme je vous l’ai dit, nous avons contacté toutes les plateformes, en commençant logiquement par celles ayant la plus grande portée, car c’est là que le danger potentiel est le plus élevé. La réaction des plateformes internationales, dont certaines sont situées au Canada, a été, comme je l’ai dit, de ne rien faire. Elles n’ont pas respecté cette règle.

C’est pourquoi la loi allemande prévoit que nous pouvons passer à l’étape supérieure. Si le fournisseur de contenu ne réagit pas, nous avons la possibilité de nous adresser, dans un deuxième temps, aux fournisseurs de services en ligne, tels que Deutsche Telekom, Vodafone, etc., puis de prononcer des ordonnances de blocage. Les ordonnances de blocage ont été respectées par les fournisseurs de services en ligne. Cela n’a posé aucun problème. Elles l’ont fait dans un délai de trois jours environ.

Ensuite, l’industrie a contourné cela en changeant simplement l’adresse Web. Dans la loi allemande, nous devons alors engager une nouvelle procédure. Cette procédure prend beaucoup de temps, car nous devons respecter les mécanismes européens. Je ne vais pas vous ennuyer avec cela.

La solution consiste alors à s’attaquer aux domaines miroirs, ce qui veut dire que lorsqu’on bloque du contenu à une adresse Web, toutes les adresses Web diffusant le même type de contenu sont également bloquées. Pour être tout à fait honnête, pour nous, le blocage de contenu dans le monde en ligne est l’ultima ratio absolu; cela ne correspond pas à la liberté des médias, mais dans ce cas, nous avons une situation juridique très claire où la distribution du contenu se fait de manière illégale, et c’est pourquoi nous prenons ces mesures énergiques.

De plus, comme l’Europe est un peu compliquée, nous avons cette voie-là, et en parallèle, la Commission européenne a aussi la responsabilité d’intervenir activement dans les cas mettant en cause les soi-disant plateformes en ligne très importantes. Bien sûr, Pornhub en fait partie. Elle doit veiller à ce que ces plateformes soient systématiquement responsables de protéger les mineurs. Les régulateurs allemands des médias se sont penchés sur ces cas. La Commission européenne a ouvert une enquête contre ces mêmes entreprises, car il pourrait y avoir des failles systémiques dans leur structure lorsqu’elles ne mettent pas en œuvre la vérification de l’âge.

Pour résumer, au final, d’une manière ou d’une autre, cela aura le même effet que celui décrit par Mme Inman Grant. Les choses changeront, notamment parce que la solution est facile. Il leur suffit de respecter une seule règle, qui dit qu’il doit y avoir un mécanisme pour protéger les mineurs, et ils pourront ensuite poursuivre leurs activités comme avant. Ce n’est pas vraiment compliqué.

La sénatrice Batters : Merci.

La sénatrice Miville-Dechêne : Mes questions s’adressent à Mme Inman Grant. Vous nous avez donné une bonne idée de l’ensemble du système dont vous vous occupez en tant que commissaire. Vous devez être une femme très occupée.

J’aimerais que vous nous parliez plus précisément de la pornographie, car dans ce cas précis, l’Australie a commencé, puis s’est arrêtée, puis a décidé de se remettre à la tâche. J’aimerais que vous nous expliquiez un peu pourquoi vous avez hésité il y a quelques années. Qu’est-ce qui a changé? Pourriez-vous également nous donner plus de détails sur les projets pilotes que vous avez lancés? Je me demande quelle efficacité vous avez constatée dans les différentes méthodes, en particulier en ce qui concerne les groupes démographiques, les groupes autochtones. Qu’avez-vous constaté ? Y a-t-il des biais?

Mme Inman Grant : Je suis ravie de vous revoir, sénatrice. Ce sont d’excellentes questions.

Je travaille sur la vérification de l’âge, sous une forme ou une autre, depuis 2008, lorsque j’étais à Microsoft et au Harvard Berkman Klein Center. Ils ont créé un important groupe de travail technique sur la sécurité Internet. Pour ce qui est de l’industrie, nous voulions mettre en place un projet pilote de vérification de l’âge en Australie en 2008. Ce que je peux dire d’un point de vue historique, c’est que l’industrie, la technologie et l’écosystème ont beaucoup évolué.

En 2021, un comité nous a demandés — dans le cadre d’une enquête intitulée « Protecting the age of innocence », soit protéger l’âge de l’innocence — d’élaborer une feuille de route pour instaurer la vérification de l’âge. Ce qui est vraiment intéressant, c’est de voir à quel point le dialogue a beaucoup évolué depuis. La discussion était beaucoup plus polarisée, en particulier sur l’estimation de l’âge à partir du visage et la conservation des données biométriques. Les gens étaient catégoriques : il n’y avait pas trois pattes au tabouret. C’est ainsi que je conçois la chose : la sûreté, la sécurité et la protection de la vie privée. Si l’une des pattes du tabouret est fragile, le tabouret tombe. Comme l’a dit M. Schmid, tous ces impératifs doivent être pris en compte. C’est précisément ce que nous avons constaté lors de l’essai technique.

En fait, il nous a fallu deux ans pour élaborer la feuille de route, car nous avons mené des consultations approfondies et produit un document de référence complet contenant une foule de recherches. Lorsque nous l’avons présenté au gouvernement, nous avons formulé diverses recommandations. L’une des premières était de ne pas imposer l’utilisation de technologies ou de systèmes particuliers sans les avoir préalablement testés et sans avoir examiné comment ils pourraient être mis en œuvre dans le contexte australien.

Pour tout vous dire, nous avions regardé ce qui s’est passé en France, où certaines des grandes entreprises pornographiques avaient mis en place des systèmes de vérification de l’âge, et cela a créé des frictions. Celles qui faisaient la bonne chose ont perdu des parts de marché, et les utilisateurs français se sont simplement tournés vers des sites moins respectueux de la réglementation. Bien sûr, il y aura toujours beaucoup d’arbitrage juridictionnel.

Il est intéressant de noter qu’à l’époque, le gouvernement n’a pas accepté notre recommandation de procéder à un essai technique, et c’est devenu un enjeu politique majeur entre nos partis d’opposition. Encore une fois, en tant qu’autorité indépendante, je suis restée en dehors de tout cela. Nous avons formulé des recommandations. Il s’est créé ensuite dans nos États un mouvement populiste assez important qui a pris de l’ampleur autour du projet de loi pour restreindre l’âge sur les réseaux sociaux grâce à Jonathan Haidt et à son livre Génération anxieuse. L’un de nos premiers ministres a dit : « Si le gouvernement fédéral ne fait rien, nous allons instaurer le consentement parental pour les jeunes de 14 ans. » Puis un autre État a déclaré : « Nous allons faire cela autrement, mais pour les jeunes de 15 ans. » Puis un autre encore a dit : « Nous allons le faire, mais pour les jeunes de 16 ans. » Je pense que le gouvernement a compris alors qu’il s’agissait d’une question nationale, dont il fallait s’occuper tous ensemble.

Puis, deux ans plus tard, au moment même où ils examinaient le projet de loi, ils ont finalement approuvé et financé l’essai sur la vérification de l’âge. Voilà donc comment le tout s’est passé.

Je travaille actuellement au déploiement de 16 ou 17 ensembles de codes. Le premier ensemble traite des contenus illégaux, tels que les contenus d’abus pédosexuels et terroristes, et le second traite des contenus préjudiciables, que nous appelons les contenus de « classe 2 ». Nous disposons d’une structure unique basée sur des codes. Il s’agit d’une coréglementation. Elle est divisée en huit secteurs économiques différents. L’industrie rédige en fait ses propres codes. Mon rôle consiste à déterminer s’ils répondent aux mesures de protection appropriées de la communauté. Si c’est le cas, je les enregistre. Dans le cas contraire, je mets en place d’une norme obligatoire.

C’est ce qui a causé le retard, et c’est ce qui explique pourquoi la mise en œuvre de ces codes a pris autant de temps. Avec le projet de loi sur la vérification de l’âge et celui sur les restrictions d’âge sur les réseaux sociaux, nous avons en quelque sorte construit l’avion tout en volant.

La sénatrice Miville-Dechêne : Si je peux vous interrompre, qu’en est-il de ces tests? Que pouvez-vous nous dire au sujet des projets pilotes qui vous assureraient qu’une personne d’une autre couleur, d’un autre groupe ou une personne autochtone — vous en avez aussi des communautés en Australie — ne fera pas l’objet de discrimination?

Mme Inman Grant : C’est une question importante. Des tests ont été faits à ce sujet, et cela nous renvoie à la nécessité pour les fournisseurs de se former, d’intégrer la sécurité dans la conception. Lorsqu’ils développent ces outils, la sécurité doit faire partie intégrante de chaque élément du processus du cycle de vie de l’intelligence artificielle.

Les données qu’ils choisissent sont-elles représentatives de la population? Bien sûr, la plupart de ces fournisseurs sont basés à l’étranger. Nous avons effectué plusieurs tests pour nous assurer que les groupes ethniques particuliers à l’Australie étaient pris en compte. Encore une fois, ils s’améliorent constamment.

Certaines plateformes accusaient un peu de retard pour les gens à la peau plus foncée, les groupes ethniques asiatiques et les Australiens des Premières Nations. Toutefois, ce que ces entreprises peuvent faire lorsqu’elles savent qu’il y a un manque de précision, c’est continuer à effectuer des tests dans le respect de la vie privée et avec le consentement des personnes concernées, en formant leurs classificateurs à ces différents groupes ethniques.

C’est l’une des facettes de nos directives réglementaires, à savoir qu’ils doivent travailler dans le but de s’améliorer constamment. Si leur technologie montre qu’il existe des biais perçus — je ne pense pas que nous soyons allés aussi loin que d’essayer de voir s’il y avait des biais perçus, mais il faut qu’il y ait un niveau de précision suffisant par rapport à un large éventail de groupes ethniques —, il leur incombera de continuer à former leurs classificateurs afin qu’ils puissent détecter ces biais. La situation sera différente d’un pays à l’autre.

La sénatrice Miville-Dechêne : Quand l’estimation de l’âge et la vérification de l’âge pour le contenu pornographique entreront-elles en vigueur?

Mme Inman Grant : Le projet de loi sur la restriction de l’âge entrera en vigueur le 10 décembre prochain, donc très bientôt. Il y a aussi les codes qui obligeront les entreprises à empêcher les moins de 18 ans d’accéder au contenu. Si vous regardez le projet de loi sur la restriction de l’âge, on relève l’âge à 16 ans, puis il y a le contenu. Ce sera donc en décembre, et en mars, pour empêcher l’accès au contenu. C’est très bientôt.

Le sénateur Prosper : Merci aux témoins. C’était très instructif d’écouter vos témoignages.

Madame Inman Grant, je crois que vous avez dit qu’il existe plus de 50 technologies différentes de vérification de l’âge. Je crois que c’est ce que vous avez dit tout à l’heure.

Monsieur Schmid, vous avez mentionné que 100 systèmes différents ont été évalués et approuvés.

Ce que nous avons entendu précédemment de la part d’autres témoins — et qu’il faut prendre en considération —, c’est le caractère intrusif de ces systèmes, les risques qu’ils présentent pour la protection de la vie privée et la sécurité des données. Je me souviens qu’un témoin a même mentionné, en parlant des atteintes à la sécurité des données, que la question n’est pas de savoir si cela allait se produire, mais quand.

Compte tenu de votre expérience, pensez-vous que cette affirmation est fausse? Ou pensez-vous que, compte tenu de l’état actuel de la technologie — je suppose que tout dépend des informations fournies au départ et de la durée pendant laquelle les entreprises ou entités conservent ces informations —, les atteintes à la sécurité des données constituent un risque de plus en plus important?

Pourriez-vous nous dire si, selon vous, l’utilisation de ces différentes technologies de vérification de l’âge soulève des préoccupations majeures liées à la protection de la vie privée?

Mme Inman Grant : Oui, certainement. Ce que j’aurais probablement dû préciser au sujet de l’essai technique sur le mécanisme de vérification de l’âge, c’est que les entreprises qui souhaitaient faire l’objet d’une évaluation ou d’une mise à l’essai indépendante se sont portées volontaires.

Les 50 technologies mises à l’essai ne représentent pas une liste exhaustive de toutes les technologies existantes. Il y avait une grande variété de technologies, y compris une technologie intéressante venue de France qui analyse les mouvements des mains. Elle s’appelle BorderAge et elle utilise l’intelligence artificielle. Apparemment, il existe de nombreuses données scientifiques sur la ligature et sur la façon dont les gens utilisent leurs mains. J’ai trouvé cela intéressant. Cette technologie a obtenu de bons résultats sur les plans de l’exactitude et de la fiabilité. De nombreuses personnes sont préoccupées, car elles se demandent si les données collectées dans le cadre des technologies liées à la biométrie et à l’estimation de l’âge à partir du visage permettent d’identifier les gens à nouveau plus tard.

Il s’agit d’un document technique de 1 400 pages dont la conclusion générale est que la vérification de l’âge peut être effectuée de manière exacte, fiable et efficace tout en préservant la confidentialité, et que cette technologie continuera à s’améliorer. Des atteintes à la sécurité des données continueront toutefois à se produire, et c’est un fardeau pour les entreprises qui mettent au point cette technologie, mais la manière dont la technologie est déployée par l’entreprise est également importante.

Une atteinte à la sécurité des données a récemment été signalée par Discord. En réalité, cette atteinte ne concernait pas la technologie de vérification de l’âge, mais un fournisseur tiers responsable d’un processus d’appel qui n’a pas traité les données de façon adéquate.

Oui, une atteinte à la sécurité des données pourrait se produire, mais la plupart des technologies que nous considérons prennent une image du visage de la personne, et les entreprises ne sont pas autorisées à conserver ces renseignements. Nous ne favorisons pas la création d’un autre type de système de surveillance, en quelque sorte.

Pour être honnête, le mal est déjà fait. C’est de cette façon que les entreprises monnaient vos données et celles de vos enfants. Le système a été conçu de cette façon. Nous avons fait tout notre possible lors de la conception de ce système pour éviter que cela se produise, ce qui a suscité des réactions très défavorables de la part des entreprises. Nous avons 2,5 millions d’enfants âgés de 8 à 15 ans. Les entreprises veulent continuer à monnayer ces données et à constituer leur future clientèle.

Nous devons tout mettre en œuvre pour protéger les enfants contre les contenus qu’ils ne sont pas prêts à assimiler. Je crois que nous assistons à un véritable changement dans la socialisation sexuelle de toute une génération, car nous observons que les enfants adoptent les uns envers les autres des comportements sexuels préjudiciables qu’ils ont vus en ligne. En effet, 30 % du contenu pornographique qu’ils regardent aujourd’hui montre des scènes d’étouffement et d’étranglement. Ce n’est plus le magazine Penthouse qui se trouvait dans le tiroir à chaussettes de votre père — mais pas votre père à vous, bien entendu. Le contenu pornographique de nature violente et explicite est facilement accessible en ligne et, comme on l’a déjà souligné, sur les réseaux sociaux. Environ 75 % des enfants voient ce type de contenu sur les réseaux sociaux, et pas seulement sur les sites pornographiques. C’est donc un problème que nous devons anticiper.

Le sénateur Prosper : Monsieur Schmid, pouvez-vous nous donner votre point de vue sur la question?

M. Schmid : Oui. J’ai deux réponses à cette question. Comme je l’ai déjà dit, la première concerne la confiance et l’expérience pratique. Comme vous l’avez dit — et à juste titre —, une centaine de ces systèmes ont été approuvés. L’expérience pratique, comme je l’ai dit, c’est que jusqu’à présent, nous n’avons eu aucun problème avec la protection des données ou la protection de la vie privée.

Bien entendu, nous travaillons en étroite collaboration avec nos collègues et des organismes de protection de la vie privée, afin d’assurer un suivi attentif de la situation. Pour le moment, mon expérience pratique — qui ne préjuge en rien de l’avenir — m’indique qu’il n’y a aucun problème à cet égard.

Je pense que la technologie sera l’aspect le plus intéressant pour l’avenir. Il est intéressant que vous, madame Inman Grant, disposiez également du système de suivi des mouvements des mains, car nous étudions justement cette technologie. Il est intéressant de constater à quelle vitesse cette technologie est mise au point tout en minimisant les risques.

Je pense qu’un autre élément pourrait être la structure entre, d’une part, l’entreprise qui fournit le mécanisme de vérification de l’âge et, d’autre part, l’entreprise qui fournit le contenu. Il serait donc peut-être judicieux de soutenir en particulier les structures dans lesquelles ces deux entités sont séparées. Ensuite, comme nous le savons tous, il est bien entendu nécessaire d’effectuer une vérification de l’âge, non seulement dans le domaine de la pornographie, mais aussi dans l’ensemble du secteur bancaire. En Allemagne, nous avons des lois très strictes en matière de jeux. Dans ce cas aussi, la vérification de l’âge est nécessaire. C’est la raison pour laquelle je pense que ce secteur est en pleine croissance, tout comme la technologie connexe. Il pourrait être intéressant de se pencher sur la séparation entre la structure responsable d’émettre l’autorisation aux utilisateurs ou le certificat attestant qu’ils ont 18 ans ou plus, et les activités commerciales proprement dites, par exemple les plateformes de contenu pornographique, mais aussi les banques ou peut-être l’industrie du jeu, etc.

Ce sont donc les deux points que je ferais valoir. Pour l’instant, je sais que cela occupe une place très importante dans les discussions et, si vous me le permettez, comme je l’ai déjà dit, cela pourrait aussi être un niveau de complexité que l’industrie pourrait utiliser pour protéger ses intérêts. J’ai déjà été lobbyiste, et j’ai donc une bonne idée du côté obscur du monde dans lequel nous vivons. D’un autre côté, comme je l’ai dit, l’expérience pratique est plus relaxante. Il n’y a pas de quoi se détendre, mais avec l’expérience pratique, on obtient ce que l’on voit. En outre, il pourrait être intéressant, à l’avenir, d’examiner la structure liée à la propriété des données et des entreprises, pour ainsi dire.

La sénatrice Simons : Monsieur Schmid, j’aimerais vous adresser mes premières questions. Je suis allée en Rhénanie-du-Nord-Westphalie l’été dernier, et je suis donc ravie de vous entendre.

Vous dites qu’en Allemagne, les fournisseurs de contenu pornographique sont tenus de vérifier l’âge des utilisateurs depuis 2003. Et pourtant, vos données montrent également que la consommation de pornographie ne cesse d’augmenter, ce qui me laisse penser que vos méthodes ne fonctionnent pas. Si vous imposez des restrictions si rigoureuses, pourquoi la consommation de pornographie chez les jeunes adolescents augmente-t-elle de manière spectaculaire?

M. Schmid : Je vous remercie de votre question. Bien entendu, je vous remercie également de votre visite dans la magnifique région de la Rhénanie-du-Nord-Westphalie.

C’est une bonne question. La réponse est, au bout du compte, très simple. En effet, le contenu pornographique consommé par les enfants, mais aussi par les adultes, provient principalement d’entreprises qui ne sont pas situées en Allemagne. C’est la raison pour laquelle l’application des règles que nous avons mises en place est un peu plus complexe. Le contenu peut provenir de l’extérieur de l’Union européenne et, dans ce cas, la situation juridique est très simple, car c’est la loi allemande qui s’applique et il s’agit plutôt d’une question d’exécution. L’autre structure principalement utilisée est celle où l’entreprise a une deuxième composante située en Europe. Dans ce cas, on a le principe dit du pays d’origine, qui stipule, en premier lieu, que l’autorité compétente est toujours celle du pays où l’entreprise est située. C’est peut-être l’une des raisons pour lesquelles toutes ces entreprises sont si désireuses de s’installer à Chypre. C’est peut-être parce que c’est agréable là-bas, je ne sais pas, mais cela complique beaucoup les choses, car nous devons bien entendu respecter les règles européennes.

C’est donc, en résumé, la principale raison. Nous devons appliquer cette considération transfrontalière, et c’est ce que nous faisons depuis 2019, puis de manière plus soutenue depuis 2024. C’est une bonne approche. Pour être honnête, à ce stade, je pense que c’est un bon signe, car cela montre que les autorités et les organismes de réglementation des médias s’assurent de vérifier si le blocage du contenu est approprié, car bien entendu, nous parlons toujours aussi de liberté d’expression, même dans le domaine de la pornographie. C’est la raison pour laquelle, de mon point de vue personnel à titre d’avocat, il est nécessaire de se montrer très strict dans le respect des règles liées au processus en Allemagne, mais aussi dans le reste de l’Union européenne.

Donc, pour résumer ma réponse, à l’heure actuelle, le contenu est principalement consommé sur le site Pornhub. Selon des chiffres non officiels, ce site compte 110 millions d’utilisateurs par mois. C’est plus ou moins impressionnant, surtout si l’on considère que je ne connais personne qui ait déjà utilisé ce service, mais c’est une autre histoire.

C’est donc en grande partie ce qui explique la situation actuelle, en plus de la structure complexe qui rend difficile la mise en œuvre d’une réponse sur le plan juridique.

La sénatrice Simons : Mais c’est justement ma question. Il me semble que si vous ne pouvez pas faire respecter la loi — et selon le mémoire que vous nous avez fourni, il semble que le site Pornhub ait été, pour dire les choses poliment, peu disposé à se conformer à la loi —, alors à quoi sert la loi, si ce n’est à collecter les données des gens? Je sais que vous êtes fier de dire qu’il n’y a jamais eu d’atteinte à la sécurité des données, mais on peut penser que ce n’est qu’une question de temps avant que quelque chose se produise.

Pourquoi collectez-vous tous ces renseignements si cela ne permet pas réellement d’endiguer le flot de contenu pornographique?

M. Schmid : Parce que nous réussirons. Comme je l’ai dit, nous arriverons, à la fin de l’année, à un point où nous pourrons bloquer le contournement de la loi. Pour être tout à fait honnête, il s’agit d’un cas intéressant. Au cours de mes années à titre de régulateur, je n’ai jamais vu une entreprise rejeter, de façon aussi systématique, toutes les ordonnances des tribunaux et des autorités, ce qui aura pour conséquence que nous ferons cesser la diffusion en ligne. D’après ce que je peux voir, cela se produira au plus tard au début de l’année prochaine, voilà tout. Donc, au bout du compte, cela fonctionnera. Il faudra du temps pour y arriver, mais c’est l’état de la situation actuelle.

Bien entendu, je ne peux pas répondre à la question sur les risques liés aux données. Comme vous l’avez dit, il y a un risque, et on ne peut rien y faire. Mais de notre point de vue, c’est mon travail, car je suis responsable de la protection des mineurs, et c’est une chose que je ne peux pas arrêter de faire simplement parce qu’un autre problème émerge.

La sénatrice Simons : Madame Inman Grant, il semble que la loi allemande se concentre sur les sites pornographiques, comme Pornhub, qui existent pour diffuser du contenu pornographique. Toutefois, vous avez dit que de nombreux enfants voient accidentellement du contenu pornographique sur les réseaux sociaux. Lorsque les lois australiennes entreront en vigueur, cibleront-elles uniquement les personnes qui travaillent dans l’industrie pornographique? Ou cibleront également d’autres sites et plateformes sur lesquels du contenu pornographique peut apparaître de temps à autre, mais dont la fonction principale n’est pas la diffusion de contenu pornographique?

Mme Inman Grant : En ce qui concerne l’âge minimal pour avoir accès aux réseaux sociaux, il s’agit encore une fois de restreindre l’accès des enfants de moins de 16 ans. Il incombe donc aux plateformes de vérifier l’âge des utilisateurs et de s’assurer qu’ils ne détiennent pas de compte.

En ce qui concerne nos codes, c’est assez complexe, mais je pense que la responsabilité et l’obligation de rendre des comptes doivent exister à tous les niveaux de la chaîne technologique. Les fabricants d’équipement ont certaines responsabilités, tout comme les boutiques d’applications, les moteurs de recherche et les fournisseurs de services Internet. Et elles sont toutes différentes. Chaque code est différent. Par exemple, il y a le code pour les moteurs de recherche, car la recherche sécurisée est une pratique courante. Ainsi, nous demandons à tous les moteurs de recherche de flouter le contenu explicite, afin que les utilisateurs ne soient pas exposés accidentellement à ce contenu.

Nous demandons aux boutiques d’applications de créer des mécanismes de vérification de l’âge pour les sites de réseaux sociaux, par exemple. De plus, nous avons quelques grandes catégories de services. Notre code pour les services Internet vise expressément les sites pornographiques. Il vise également les sites de jeux, ainsi que les robots conversationnels et les compagnons alimentés à l’intelligence artificielle. Je tiens à répéter que l’intelligence artificielle est un danger très présent et probablement catastrophique. Je suis certaine que vous êtes au courant que des poursuites judiciaires ont été intentées, aux États-Unis, contre Character.AI et ChatGPT. Toutefois, ChatGPT, ou OpenAI, parle maintenant d’offrir du contenu érotique, même si la plateforme ne dispose pas encore d’outils de protection des mineurs ou de vérification de l’âge efficaces et pleinement déployés.

La sénatrice Simons : Lorsque vous dîtes que vous demandez cela aux boutiques d’applications et aux plateformes, est-ce une demande ou une obligation?

Mme Inman Grant : Ce sont des exigences obligatoires. Les plateformes qui enfreignent ces exigences s’exposent à des amendes pouvant atteindre 49,5 millions de dollars australiens. Nous commençons à utiliser certains de ces pouvoirs. Je viens juste de faire fermer un site de chatroulette appelé OmeTV qui mettait essentiellement en relation des pédophiles avec des jeunes. Les responsables du site ont refusé de répondre. La stratégie consistant à exploiter les différences entre les administrations dont parlait M. Schmid est très réelle. Je me suis donc adressée à Google et à Apple, des entreprises qui contrôlent l’accès avec les boutiques d’applications. Ces entreprises prélèvent 30 % des revenus provenant de chacune de ces applications. Pourtant, les sites de chatroulette vont à l’encontre de leurs conditions d’utilisation. Je leur ai donc dit qu’elles avaient des responsabilités en vertu du code des boutiques d’applications et que nous les poursuivrons en justice si elles ne les suppriment pas de leurs plateformes.

Nous devons donc faire preuve d’ingéniosité pour remonter le long de la chaîne et nous assurer que tous les intervenants assument une certaine part de responsabilité. Cela ne peut pas se limiter aux sites pornographiques et aux réseaux sociaux. Il faut aussi viser les fabricants d’appareils, les boutiques d’applications, les moteurs de recherche et tous les intervenants de l’écosystème. C’est la façon dont notre système fonctionne.

La sénatrice Simons : Je vous remercie.

La sénatrice Saint-Germain : Ma première question s’adresse à Mme Inman Grant. Elle fait suite à la question que ma collègue, la sénatrice Simons, vous a posée à tous les deux. Madame Inman Grant, pourriez-vous nous donner un peu plus de renseignements sur les récentes modifications apportées à la loi pour ajouter des restrictions liées à l’âge sur les réseaux sociaux? En résumé, quelle en est la raison et comment comptez-vous mettre une telle mesure en œuvre?

Mme Inman Grant : C’est une question qui tenait particulièrement à cœur à notre premier ministre — le fait que les entreprises de médias sociaux doivent assumer davantage de responsabilités sociales, qu’elles utilisent systématiquement des fonctionnalités nuisibles et trompeuses. Je pense au défilement infini, aux Snapstreaks ou aux algorithmes opaques qui entraînent les enfants dans une sorte de spirale. Ce sont des forces très puissantes que les enfants ne peuvent pas voir, et encore moins combattre.

La décision du gouvernement a donc été adoptée avec le soutien des deux grands partis. L’idée était de prévoir un délai et d’obliger les plateformes à empêcher les enfants de moins de 16 ans de créer et de détenir un compte.

Puisqu’il n’y avait pas beaucoup de détails sur la façon dont on allait s’y prendre, mon équipe et moi avons dû le déterminer. C’est énoncé dans les directives réglementaires. En gros, nous avons dit aux entreprises ce qu’elles devaient faire avant le 10 décembre, c’est-à-dire qu’elles doivent déterminer de manière bienveillante et compatissante... Nous avons déjà collaboré avec elles pour des rapports sur la transparence. Par exemple, nous savons que 96 % des enfants utilisent YouTube et qu’il y a 2,5 millions de jeunes âgés de 8 à 15 ans. Voilà qui vous donne une idée précise du nombre d’utilisateurs mineurs de la plateforme. Nous nous attendons donc à ce que les entreprises déterminent qui ils sont, puis, dès le 10 décembre, à ce qu’elles commencent à désactiver et à supprimer leurs comptes.

Elles devront mettre en place un système de signalement par les utilisateurs en cas d’omission, afin que les parents et les enseignants puissent le dire s’ils constatent qu’un enfant de moins de 16 ans est toujours sur un site. Elles doivent établir une procédure d’appel au cas où il y aurait un verrouillage excessif.

Il y a un autre élément important, qui est lié à ce qu’a dit M. Schmid. C’est aux entreprises qu’il incombe d’empêcher le contournement, qu’il soit basé sur la localisation par l’intermédiaire de réseaux privés virtuels, ou VPN, ou basé sur l’âge. Les enfants sont ingénieux, n’est-ce pas? Ils essaieront de contourner les obstacles. Ils tenteront probablement de tromper les systèmes de vérification de l’âge, ce qu’ils peuvent déjà faire grâce à l’intelligence artificielle générative. Ils peuvent le faire à l’aide de graphismes de jeux. Ils peuvent porter un masque en plastique.

Nous nous attendons également à ce qu’un marché noir se développe concernant la vérification préalable de l’âge. Nous avons expliqué très précisément aux entreprises ce que nous leur demandons de faire sur le plan de la « vérification préalable de l’âge ». Elles doivent ensuite faire preuve d’une grande transparence quant à l’efficacité ou non de leurs mesures. Encore une fois, si elles ne mettent pas en place les systèmes et processus technologiques nécessaires pour empêcher les jeunes de moins de 16 ans d’ouvrir et de détenir un compte, elles feront l’objet d’une enquête et s’exposeront à une amende pouvant atteindre 49,5 millions de dollars australiens.

Nous ne nous attendons pas à ce que ce soit parfait. Cependant, je ne vais pas laisser la perfection être l’ennemi du bien. Cela crée des tensions importantes dans le système. Il convient également de souligner que je collabore avec 12 universitaires spécialisés dans le monde pour réaliser une évaluation distincte de l’examen juridique. Nous allons examiner certains éléments. Par exemple, les enfants dorment-ils davantage. Participent-ils à des activités sportives? Échangent-ils davantage? Quelles sont les conséquences imprévues? Se tournent-ils vers les coins sombres d’Internet? L’âge de 16 ans convient-il? Lorsque d’autres pays souhaiteront examiner ce qu’ils font, ils bénéficieront d’une base factuelle dont nous ne disposions pas.

La sénatrice Saint-Germain : Votre organisation est-elle financée uniquement par le gouvernement australien ou existe‑t‑il un partenariat?

Mme Inman Grant : Notre organisation est un organisme public indépendant. Je relève des ministres chargés des technologies de l’information et des communications et nous sommes entièrement financés par le gouvernement. Je crois que notre budget avoisine les 60 millions de dollars australiens et que nous comptions 250 employés à mon arrivée. Au départ, notre budget était de 10 millions de dollars australiens et nous avions 30 employés, mais à mesure que les répercussions et les mécanismes de réglementation ont évolué, nous avons dû nous adapter. L’éducation est un élément très important à cet égard. Je parle des trois éléments suivants : la prévention, la protection par notre réglementation et les changements proactifs et systémiques.

Il s’agit de savoir comment nous pouvons réduire le danger le plus possible à l’avenir. Comment voyons-nous l’avenir? Quels seront les effets du métavers? Qu’est-ce qui nous préoccupe au sujet de l’intelligence artificielle et de l’Internet quantique? Encore une fois, nous anticipons les choses pour éviter qu’elles ne nous prennent au dépourvu et nous imposons le fardeau aux plateformes selon le principe de sécurité intégrée dans la conception, comme nous l’avons fait dans le cas des ceintures de sécurité. Les parlements ont rendu l’installation de ceintures de sécurité obligatoire lorsqu’on a constaté qu’une telle mesure ferait diminuer le nombre de décès sur les routes. Nous pensons que la technologie doit connaître son moment « ceinture de sécurité ». Les entreprises doivent évaluer les dangers et les risques dès le départ et mettre en place les mesures de protection nécessaires, plutôt que de s’adapter après coup, une fois les dégâts causés.

[Français]

La sénatrice Oudar : Merci à vous deux, madame Inman Grant et monsieur Schmid. Je crois que votre témoignage est capital. Merci de mettre votre expertise et de votre expérience au service de notre comité.

J’aimerais vous entendre sur un sujet abordé plus tôt dans vos présentations : le fait que nos écosystèmes numériques traversent les frontières. En fait, il n’y a plus vraiment de frontières entre chaque pays.

D’après votre expérience, quels mécanismes de coordination internationale pourraient avoir le plus grand potentiel pour réduire le fait que les mineurs migrent vers des plateformes qui sont moins régulées? Cela pourrait-il être l’interopérabilité technique ou la reconnaissance mutuelle de certification ou d’harmonisation des normes, par exemple? J’aimerais entendre d’abord Mme Inman Grant.

[Traduction]

Mme Inman Grant : C’est une excellente question. Il existe en fait une norme technique qui est en cours d’élaboration ou qui est sur le point d’être mise en place. Il s’agit de la norme ISO/IEC 27566 et elle établira des normes techniques uniformes pour les systèmes de contrôle de l’âge. C’est vraiment important, car quand on pense au fait que l’ingénieur est roi dans la Silicon Valley, c’est vers cela que l’on tend. On s’oriente vers l’établissement de normes. C’est donc très important.

Je pense que lorsqu’il s’agit de lois et de systèmes législatifs différents, l’interopérabilité sera probablement le plus grand défi auquel nous serons tous confrontés dans le domaine de la réglementation d’Internet.

Nous parlons souvent d’environnements d’hébergement permissifs. M. Schmid a mentionné Chypre. Je crois que XHamster, qui est un autre exemple, y est basé. Bon nombre des pires sites à contenu « gore », terroriste et mettant en scène des agressions sexuelles contre des enfants sur lesquels nous enquêtons sont situés aux États-Unis, aux Pays-Bas et aussi en France, bien qu’on y fait un meilleur travail.

Là où il n’y a pas de lois strictes et où l’on peut causer des préjudices en ligne, cela se répandra au-delà de nos frontières. On dit que la marée montante soulève tous les bateaux. C’est pourquoi nous discutons avec d’autres parlements. Nous aimerions beaucoup que le Canada monte à bord. Bien sûr, nous avons suivi vos travaux sur le projet de loi sur les préjudices en ligne et nous sommes tristes de voir qu’il n’a pas été adopté, car nous aimerions beaucoup collaborer avec vous. Je pense que nous avons une approche très similaire dans notre façon d’aborder les choses. Encore une fois, tant que nous ne serons pas tous en sécurité et que nous n’aurons pas tous établi des organismes de réglementation, je pense qu’aucun d’entre nous ne sera totalement en sécurité.

M. Schmid : C’est une bonne question, à laquelle il n’est pas facile de répondre. Sur les aspects techniques, je suis d’accord avec Mme Inman Grant.

Le point le plus compliqué de votre question est bien sûr la situation politique, car nous parlons de la réglementation des médias. Tout commence par le fait que, partout dans le monde, nous avons manifestement une compréhension très différente de termes comme la liberté d’expression et la question de savoir dans quelle mesure les États, les organismes de réglementation nationaux, entre autres, doivent intervenir. Je ne suis pas très optimiste quant à la possibilité de trouver une norme mondiale à cet égard.

En revanche, je pense qu’il est judicieux de distinguer deux domaines. Comme Mme Inman Grant, je suis convaincu que nous voulons protéger non seulement les mineurs, mais également des valeurs, comme la dignité humaine, contre l’extrémisme. Nous luttons contre la désinformation, etc.

D’après mon expérience, il existe deux cadres bien différents. Le premier est axé sur les affaires. Par exemple, la pornographie en fait partie. En fin de compte, le but est de gagner de l’argent. Le second est axé sur des intérêts politiques d’extrémistes, d’ennemis des systèmes démocratiques, etc.

Dans le premier cas, je dirais que c’est quelque chose que nous pouvons arriver à contenir avec le temps, car au final, toutes ces entreprises souhaitent gagner de l’argent sur de grands marchés. Elles finiront donc par respecter les règles, car sinon, elles ne pourront pas faire de l’argent. La solution réside donc dans une bonne collaboration entre les organismes de réglementation, l’adoption de règles en conséquence et la mise en place de règles d’application claires qui indiquent explicitement que s’il existe une règle, vous devez l’accepter. Si vous l’acceptez, vous pouvez faire des affaires ici. C’est tout. Il n’y a pas différents niveaux. En fin de compte, c’est une question d’argent et nous devons trouver un équilibre entre cette réalité et l’idée d’une société libre.

Dans l’autre cas, la situation est beaucoup plus compliquée, car les raisons qui sous-tendent la désinformation, la manipulation, la haine, par exemple, ne sont pas principalement, ou au départ, d’ordre économique. C’est pourquoi il est plus difficile de trouver des solutions. Il est également plus difficile de tracer la frontière entre la protection des utilisateurs et de la société, d’une part, et le respect de l’idée de liberté, d’autre part, car, bien sûr, chaque mesure que l’on prend pour protéger la société contre ce type d’agression comporte toujours le risque de détruire la liberté que l’on souhaite protéger.

Pour résumer, pour ce qui est du côté « affaires » — et cela concerne principalement la protection des mineurs —, je suis plutôt optimiste. Excusez-moi, permettez-moi de vous donner une information supplémentaire provenant de mon législateur, le législateur allemand. Comme je l’ai dit, il va modifier la loi et une autre règle intéressante sera adoptée, qui consistera à « suivre l’argent ». Ainsi, à partir du début de l’année prochaine, nous pourrons empêcher les sociétés émettrices de cartes de crédit d’offrir leurs services aux plateformes de pornographie si elles ne respectent pas la loi sur les médias.

Par conséquent, j’ai bon espoir que les gens respecteront la loi quand ils verront que cela leur rapportera moins autrement. Je suis donc optimiste à cet égard. En fin de compte, la solution réside dans la collaboration avec le Canada et nos partenaires européens, ainsi que dans les leçons tirées de l’expérience australienne. Il nous faut ensuite faire preuve de patience, car il faudra quelques mois pour trouver des réponses.

[Français]

La sénatrice Oudar : Merci beaucoup à tous les deux.

[Traduction]

Le président : On vient de m’informer que Mme Inman Grant ne peut pas rester pour poursuivre son témoignage. Est-ce exact?

Mme Inman Grant : On m’avait dit que cela se terminerait à 10 heures. Je dois prendre l’avion.

Le président : D’accord. Merci.

Mme Inman Grant : Je peux répondre à deux ou trois autres questions si cela peut vous être utile.

Le président : Très bien. Nous verrons.

Le sénateur Dhillon : Monsieur le président, pourrions-nous poser des questions à Mme Inman Grant, puis revenir à l’autre témoin?

Le président : Bien sûr.

Le sénateur Dhillon : Madame Inman Grant, merci de rester avec nous. Merci pour votre important témoignage.

Outre les préjudices dont nos enfants continueront d’être victimes, comme nous le savons et le comprenons maintenant, quels autres risques ou problèmes allons-nous rencontrer au Canada si nous n’agissons pas maintenant?

Mme Inman Grant : Je compare souvent la sécurité en ligne à la sécurité aquatique. C’est peut-être une excellente analogie avec le patinage sur glace au Canada.

Notre pays a été l’un des premiers à interdire l’utilisation de téléphones à l’école, tout comme il a été l’un des premiers au monde à exiger la pose de clôtures autour des piscines, en raison des noyades tragiques qui se sont produites. Lorsque le gouvernement a commencé à envisager l’idée d’interdire l’accès aux réseaux sociaux, j’ai dit que ce n’était pas comme poser des clôtures autour des piscines; c’est plutôt comme essayer d’en poser autour de l’océan. Ce n’est pas notre approche de la sécurité aquatique. Nous devons adopter une approche globale. Nous surveillons toujours nos enfants quand ils se baignent. Nous leur apprenons à nager dès leur plus jeune âge. Sur les plages, il y a des sauveteurs. Nous leur apprenons à nager entre les drapeaux. Là où il y a des requins, nous avons des filets.

Je pense que ne pas réglementer revient à ne pas protéger ses citoyens. Bien sûr, nous nous entendons tous pour dire que les enfants sont les personnes les plus vulnérables.

Nous disons souvent que les réseaux sociaux constituent une formidable expérience sociale. J’ai travaillé pendant 22 ans dans le secteur des technologies et j’ai essayé de changer les choses en tant que défenseuse de la sécurité depuis l’intérieur. L’une des exigences de ce poste était que le commissaire à la sécurité en ligne devait avoir une position importante dans l’industrie d’Internet et posséder de l’expérience en matière de sécurité en ligne. La raison en était qu’ils voulaient un spécialiste qui savait exactement quels arguments les entreprises de technologie allaient avancer, qui savait de quoi elles étaient capables, mais qui comprenait également leurs limites afin que nous ne leur demandions pas de faire quoi que ce soit qui dépasse leur pouvoir ou leur contrôle.

Encore une fois, je pense qu’il s’agit d’une expérience non réglementée. Ce sont les entreprises de technologie les plus puissantes et les plus riches au monde, et elles nous disent qu’elles ne peuvent pas déployer les technologies qu’elles utilisent pour rendre leurs plateformes plus sécuritaires. Quelqu’un doit leur demander des comptes. Si personne ne le fait, je crois qu’elles continueront à n’en faire qu’à leur tête et à se moquer des gouvernements.

Je pense que c’est impératif. Il revient à chaque pays et à son parlement démocratiquement élu de décider de la manière de procéder. Il est évident que nous voulons trouver le juste équilibre entre la liberté d’expression et la protection.

Le sénateur Dhillon : Merci. Je vous souhaite un bon vol.

Le président : Madame Inman Grant, merci d’avoir aidé le comité dans le cadre de ses travaux. Merci de votre présence aujourd’hui. Bon vol.

Mme Inman Grant : Merci. Bonne chance à vous tous.

Le sénateur Tannas : Monsieur Schmid, je voudrais que vous me confirmiez ce que je crois vous avoir entendu dire tout à l’heure dans une réponse. En fait, vous l’avez peut-être dit dans votre déclaration préliminaire. Vous avez mentionné que certains des plus grands fournisseurs de pornographie ne respectaient visiblement pas les règlements en vigueur dans votre pays. Ai-je bien entendu?

M. Schmid : Oui.

Le sénateur Tannas : L’un d’entre eux, je crois, était Pornhub. Est-ce exact?

M. Schmid : Oui.

Le sénateur Tannas : Monsieur le président, j’aimerais soulever une question de privilège à ce sujet. Je crois que nous avons été induits en erreur par Pornhub, par ses représentants, qui sont canadiens, soit dit en passant.

Je voudrais demander au comité directeur d’envisager de faire appel à notre service juridique pour examiner les témoignages et nous faire ensuite une recommandation sur la possibilité de contraindre, en utilisant nos pouvoirs, les représentants de Pornhub et de toute autre organisation qui leur est associée à témoigner sous serment. Nous devons aller au fond des choses. Je pense que nous devons au monde entier de donner à ces personnes la possibilité de s’expliquer et de clarifier la situation. Elles ne semblent pas faire ce qu’elles ont dit faire dans d’autres parties du monde et nous sommes les seuls à pouvoir les faire comparaître et les obliger à nous dire la vérité. Merci.

Le président : Une question de privilège a donc été soulevée. Y a-t-il des commentaires sur cette question ou souhaitez-vous en débattre?

La sénatrice Pate : J’appuie l’idée et je pense que nous devons revoir les témoignages qui ont été recueillis dans le cadre de l’étude de la version précédente du projet de loi, lorsque des représentants de sites pornographiques ont comparu devant le comité et ont déclaré qu’ils ne respecteraient pas la loi. Vous vous souvenez peut-être que j’ai posé cette question lorsque les avocats de la nouvelle mouture de Pornhub étaient ici et je pense qu’il serait extrêmement important de rassembler tous ces éléments.

Une voix : D’accord.

Le président : Y a-t-il d’autres sénateurs qui aimeraient se prononcer sur la question de privilège?

Dans ce cas, le comité directeur sera invité à demander aux conseillers juridiques d’analyser ces témoignages, à la lumière de la question soulevée, et éventuellement, de sommer les témoins qui ont déjà témoigné devant le comité et qui ont peut‑être induit le comité en erreur de témoigner sous serment.

Très bien. Merci.

La sénatrice Clement : Merci, monsieur Schmid, d’être ici et de témoigner devant nous. J’ai deux questions pour vous. J’aimerais revenir à la notion de souveraineté des données et à la volonté des Canadiens que leurs données soient bien protégées. Nous avons entendu Michael Geist, un professeur d’université, déclarer que ce projet de loi obligerait des millions de personnes à divulguer des données à des entités étrangères privées, à but lucratif, auxquelles il pourrait être difficile de faire appliquer les lois canadiennes sur la protection de la vie privée, comme nous l’a dit le commissaire à la protection de la vie privée.

Je me demande si vous pourriez nous en parler de votre point de vue. Les Canadiens se méfient de plein de monde ces jours-ci, même de nos plus proches voisins, qu’ils ont toujours considérés comme de bons amis.

Ma deuxième question est celle que la sénatrice Miville-Dechêne a posée à Mme Inman Grant au sujet des préjugés et du racisme systémique inhérents à ces entreprises. Vous avez mentionné qu’il y avait une centaine de systèmes sur le marché allemand. Que savez-vous de leurs activités? Les Allemands, en particulier les Allemands noirs et racisés... Parce que j’entends dire de la part de mes compatriotes ici au Canada qu’il y a de la méfiance à ce sujet. Je vous serais reconnaissante de bien vouloir nous faire part de vos commentaires à ce sujet.

M. Schmid : Merci pour cette question. Concernant le premier point, oui, je comprends que les gens soient inquiets, surtout en ce qui concerne la destination des données. C’est également une expérience intéressante pour nous que les relations avec nos partenaires puissent changer un peu, bien sûr, y compris outre-Atlantique. Mais je ne peux pas vous donner de réponse satisfaisante à ce sujet. C’est comme ça.

Comme je le disais, nous devons garder à l’esprit qu’il serait vraiment utile d’examiner de près la question de la structure des entreprises qui vérifient l’âge par rapport à celles qui tirent des revenus de leurs activités. C’est quelque chose qui m’intéresse structurellement.

Le deuxième point, qui est vraiment important à mes yeux, est de savoir quelle serait la réaction si nous n’obtenions pas de réponse satisfaisante à la question de la sécurité des données. La réponse pourrait-elle être que nous devons réduire la protection des mineurs? Je pense que cela n’a pas de sens. Je répondrais à cela que c’est un risque que l’industrie doit résoudre, car c’est elle qui l’a créé. En fin de compte, nous ne pouvons pas mettre ces deux valeurs en concurrence. C’est à nous, comme société, qu’il appartient de protéger nos habitants dans ce contexte. C’est essentiel.

Pour être honnête, je ne peux pas vous donner de réponse satisfaisante à la question de savoir dans quelle mesure ces données sont globalement sécurisées. Nous disposons d’autorités très strictes en matière de protection des données, nos autorités chargées de la protection de la vie privée ici en Allemagne. Pour l’instant, nous n’avons aucune preuve qu’il y ait un problème dans les systèmes mis en place sur le marché. C’est tout ce que je peux vous dire. Mais, bien sûr, ce n’est garant de rien pour l’avenir, comme je l’ai dit.

L’autre question est une bonne question, en effet. La réponse de Mme Inman Grant a retenu toute mon attention, parce que je pense qu’ils ont plus d’expérience que nous dans ce domaine. C’est peut-être parce que la structure de notre population est un peu différente, donc ce n’est pas aussi dominant. Pour être tout à fait honnête, je n’ai aucune preuve ni connaissance de problèmes à cet égard sur notre marché pour le moment. Ça ne veut pas dire qu’il n’y en a pas, mais rien n’a été porté à notre attention jusqu’à présent.

L’une des raisons pourrait en être que comme nous avons 100 systèmes de vérification de l’âge, tous ne sont pas basés sur la biométrie ou l’intelligence artificielle. Il y a aussi les méthodes classiques, comme le fait d’aller à la poste et de présenter sa carte d’identité. C’est beaucoup plus simple, car aucune discrimination technique n’est possible là. C’est pourquoi le chiffre 100 ne signifie pas qu’il y a 100 outils d’intelligence artificielle qui utilisent les données biométriques, pour mettre les choses en perspective.

Dans les cas où on utilise des données biométriques, je n’ai pour l’instant aucune connaissance tangible de problèmes de discrimination. Mais bien sûr, comme partout où on utilise des données biométriques, il faut faire attention, parce qu’il peut y avoir de mauvaises intentions, mais aussi parce que, comme l’a dit Mme Inman Grant, les données doivent être suffisamment alimentées pour apprendre, et il faut veiller à ce que les données qui alimentent ces mécanismes reflètent la réalité de façon équilibrée pour qu’au final, les systèmes agissent en fonction de la réalité et non uniquement en fonction d’une ou d’une autre couleur ou ethnicité.

La sénatrice Pate : Merci beaucoup d’être ici. Ma question est la suivante : quelle est la masse critique, ou avez-vous évalué combien de pays, d’administrations doivent adopter cette approche pour que les choses changent dans le monde? Nous savons que les entreprises ne cessent de se transformer; comme vous l’avez mentionné, elles changent de plateforme, de nom, de configuration. À votre avis, quelles sont les prochaines étapes pour que nous puissions vraiment lutter de manière efficace contre les préjudices en ligne dans le monde?

M. Schmid : C’est une très bonne question. Comme je l’ai dit, il faut distinguer les cas où les intérêts commerciaux priment. Je pense que c’est assez facile. On peut alors se demander quels sont les marchés les plus importants pour les entreprises. Je suis convaincu que si la Commission européenne unit ses forces à celles des organismes de réglementation nationaux européens pour faire respecter la loi comme nous le faisons actuellement, ce sera un argument de poids pour inciter les entreprises à changer. Il importe également de rappeler qu’elles peuvent toujours exercer leurs activités. La pornographie n’est pas interdite. Elles doivent simplement respecter une règle.

D’ailleurs, elles connaissent toutes ces techniques. Ce n’est pas sorcier. C’est pourquoi je pense que si nous parvenons à faire appliquer la loi allemande, si nos collègues britanniques et français poursuivent leur initiative, alors il y aura déjà trois marchés européens solides qui inciteront l’Union européenne à rester active sur ce front. Ensuite, il faut rappeler que le marché européen est un marché important pour ce secteur. Si, parallèlement, des pays comme le Canada et l’Australie se saisissent de cet enjeu, l’industrie finira par se rendre compte qu’elle doit respecter les normes établies si elle souhaite poursuivre ses activités. Je suis plutôt optimiste.

Pour l’instant, toutes ces entreprises sont confrontées à un dilemme. La première entreprise à changer perdra de l’argent au départ, car il y a un risque que les gens se tournent vers une autre plateforme. D’un autre côté, d’après mon expérience, lorsque nous faisons respecter la règle, comme nous l’avons fait dans un ou deux cas, le secteur suit généralement, et cela rétablit une sorte de parité.

C’est pourquoi je suis optimiste. Bien sûr, cela prendra encore quelques jours. Une initiative telle que celle dont vous discutez actuellement, émanant d’un pays comme le Canada, serait extrêmement utile. Comme l’a dit Mme Inman Grant, le climat évolue en ce sens, car l’argument selon lequel cela n’est pas possible n’est pas vrai; c’est possible, et nous pouvons y parvenir.

La réponse à l’autre volet de la question — la protection de la dignité humaine, la protection du pluralisme et la lutte contre la désinformation, la manipulation, la haine, etc. — est beaucoup plus complexe. Je dirais que l’idée centrale à ne pas oublier — et si cela pouvait s’appliquer dans le plus grand nombre possible de démocraties, cela aiderait —, c’est que c’est la société qui fixe les règles par l’intermédiaire du législateur, et non l’industrie. L’industrie doit respecter les règles. Si elle ne le fait pas, il appartient aux autorités de faire appliquer ces règles.

Nous avons trop longtemps cru que le monde virtuel s’autorégulerait ou que les plateformes n’étaient que des canaux de transmission et que personne ne pouvait rien y changer. Ce n’est pas vrai; bien sûr que nous pouvons y changer quelque chose. Au bout du compte, quelqu’un doit prendre une décision. Les gens sont responsables de leurs actes. Le débat européen sur la loi sur les services numériques est exactement le même que celui que vous avez en ce moment. Il tient principalement au moment où l’on décide de revenir à l’idée que c’est la société qui fixe les règles, puis que les autres peuvent agir conformément à ce que vous, les législateurs, déterminez. Si nous agissons ainsi, alors nous avons une chance de reprendre peu à peu la maîtrise de la situation.

Comme nous l’avons appris ces dernières années, lorsqu’on est incapable de faire respecter certaines idées fondamentales et de protéger certaines valeurs essentielles dans le monde virtuel, cela sape le concept même de liberté démocratique. C’est pourquoi je pense qu’il est si important de trouver un moyen efficace et équilibré de placer cette partie de notre réalité sous le contrôle démocratique qui existe également dans le « monde réel ». C’est une bonne idée qui fonctionne bien.

La sénatrice Pate : Merci.

Le président : Merci, monsieur Schmid, d’avoir comparu devant le comité et de l’avoir aidé dans son travail. Nous apprécions vraiment votre témoignage et nous y accordons une grande valeur.

M. Schmid : Merci beaucoup. Ce fut un plaisir.

Le président : Chers collègues, nous pensions terminer les témoignages aujourd’hui, mais le comité directeur a reçu des instructions spéciales afin d’étudier la possibilité de demander à des témoins qui ont déjà témoigné de revenir pour témoigner sous serment. Je suis donc certain que nous devrons modifier quelque peu notre plan de travail.

La sénatrice Saint-Germain : Lorsque vous aurez terminé, j’aimerais faire un commentaire.

Le président : Je n’ai pas tout à fait terminé. Nous espérions faire l’étude article par article mercredi. Ensuite, nous avons l’intention de nous pencher sur le projet de loi S-205. Le comité directeur examinera le plan de travail ce soir. Demain, nous nous réunirons à nouveau et nous consacrerons la discussion aux études spéciales que le comité pourrait entreprendre, une série d’études potentielles dont la liste a été diffusée par le comité directeur.

J’encourage donc les membres à passer cette liste d’études en revue et à prendre connaissance des enjeux soulevés, ainsi que des documents d’information que le greffier a distribués.

La sénatrice Saint-Germain : Je suggère que lorsque nous serons prêts à faire l’étude article par article du projet de loi S-209, nous tenions une séance à huis clos afin de discuter de certaines choses avant de nous attaquer à cette étude.

Le président : Avez-vous des questions?

La sénatrice Batters : Sénatrice Saint-Germain, pourquoi devrions-nous tenir une séance à huis clos alors que tous les témoignages ont été entendus en séance publique?

La sénatrice Saint-Germain : Si le comité décide de le faire en public, cela ne me pose aucun problème.

La sénatrice Batters : C’est normalement ainsi que nous procédons. Je me demandais simplement pourquoi vous proposiez de tenir une séance à huis clos.

La sénatrice Saint-Germain : C’était pour que certains collègues se sentent plus libres de s’exprimer et d’échanger des commentaires ou des points de vue. Mais, encore une fois, je suis pour la transparence. Personnellement, cela ne me pose aucun problème, donc si les membres du comité souhaitent avoir une discussion générale et un aperçu du projet de loi avant de passer à l’étude article par article, de mon point de vue, ce serait tout à fait pertinent.

Le président : Je m’attendrais à ce que le président nous demande à tous : « Sommes-nous prêts à passer à l’étude article par article? » Nous pourrions alors aborder cette question.

La sénatrice Batters : Monsieur le président, nous pourrions certainement avoir une discussion plus générale sur le projet de loi. Je sais que depuis environ un an, ce comité a parfois pour habitude de passer immédiatement à l’étude article par article. Avant, ce comité avait l’habitude d’avoir d’abord une discussion plus générale et de donner l’occasion de poser des questions et d’avoir un débat plus approfondi. Cela pourrait sûrement se faire au début, et il n’est pas nécessaire que ce soit à huis clos.

La sénatrice Saint-Germain : Personnellement, je n’ai aucun problème à ce que la discussion ait lieu en public.

Le président : Nous n’avons pas à nous prononcer à ce sujet tout de suite. Nous nous pencherons sur cette question la prochaine fois, avant l’étude article par article. D’ici là, nous avons du travail à faire demain sur les études spéciales à venir. Le comité directeur doit bientôt se pencher sur un certain nombre de questions.

(La séance est levée.)

Haut de page