Aller au contenu
TRCM - Comité permanent

Transports et communications


LE COMITÉ SÉNATORIAL PERMANENT DES TRANSPORTS ET DES COMMUNICATIONS

TÉMOIGNAGES


OTTAWA, le mardi 25 novembre 2025

Le Comité sénatorial permanent des transports et des communications se réunit aujourd’hui, à 9 heures (HE), par vidéoconférence, pour examiner, afin d’en faire rapport, les possibilités et les défis de l’intelligence artificielle (IA) dans le secteur des technologies de l’information et des communications.

Le sénateur Larry W. Smith (président) occupe le fauteuil.

[Traduction]

Le président : Avant de commencer, je vous invite à prendre connaissance des cartes placées sur les tables de la salle de comité pour connaître les lignes directrices visant à prévenir les incidents liés aux retours de son. Prière de garder les oreillettes à l’écart de tous les microphones en tout temps. Ne touchez pas aux microphones. Leur activation et leur désactivation seront contrôlées par l’opérateur de console.

Finalement, évitez de manipuler votre oreillette lorsque le microphone est activé. L’oreillette doit rester sur l’oreille ou être déposée sur l’autocollant prévu à cet effet à chaque siège. Merci pour votre coopération.

Je m’appelle Larry Smith. Je suis sénateur du Québec et président de ce comité. J’aimerais demander à mes collègues de se présenter.

La sénatrice Simons : Paula Simons, de l’Alberta, territoire du Traité n° 6.

La sénatrice Mohamed : Farah Mohamed, de l’Ontario.

[Français]

Le sénateur Cormier : René Cormier, du Nouveau-Brunswick.

La sénatrice Arnold : Dawn Arnold, du Nouveau-Brunswick.

Le sénateur Quinn : Jim Quinn, du Nouveau-Brunswick.

Le sénateur Aucoin : Réjean Aucoin, de la Nouvelle-Écosse.

[Traduction]

Le sénateur Lewis : Todd Lewis, de la Saskatchewan.

[Français]

La sénatrice Miville-Dechêne : Julie Miville-Dechêne, du Québec.

[Traduction]

La sénatrice Dasko : Donna Dasko, sénatrice de l’Ontario.

Le président : Je souhaite la bienvenue à toutes les personnes présentes aujourd’hui ainsi qu’à celles qui nous écoutent en ligne sur le site Web du Sénat, sencanada.ca. Nous nous réunissons aujourd’hui pour entamer notre étude sur les possibilités et les défis de l’intelligence artificielle, ou IA, dans le secteur des technologies de l’information et des communications.

J’aimerais vous présenter notre premier groupe d’experts. Nous recevons les représentants d’Innovation, Sciences et Développement économique Canada, ou ISDE : M. Jordan Zed, sous-ministre adjoint principal; M. Samir Chhabra, directeur général à la Direction générale des politiques-cadres du marché; M. Andre Arbour, directeur général, à la Direction générale des politiques de télécommunications; et M. Patrick Blanar, directeur à la Direction générale des politiques-cadres du marché. Nous accueillons également M. Olivier Blais, cofondateur et vice‑président de l’intelligence artificielle à Moov AI. Il est également membre du Groupe de travail sur la stratégie en matière d’IA et coprésident du Conseil consultatif en matière d’intelligence artificielle. Merci à tous d’être parmi nous aujourd’hui.

Les témoins prononceront une allocution liminaire d’environ cinq minutes, qui sera suivie d’une séance de questions et de réponses avec les sénateurs.

[Français]

Jordan Zed, sous-ministre adjoint principal, Innovation, Sciences et Développement économique Canada : Bonjour, monsieur le président et membres du comité.

Je m’appelle Jordan Zed et je suis sous-ministre adjoint principal au Secrétariat de l’intelligence artificielle au ministère Innovation, Sciences et Développement économique Canada. Je vous remercie de me donner l’occasion de m’adresser à vous aujourd’hui.

Le Canada se trouve à un tournant important alors que nous faisons face à des défis mondiaux et à des changements technologiques rapides. La mise à jour de la stratégie canadienne en matière d’IA nous offre l’occasion de renforcer notre approche à l’égard de l’une des technologies les plus transformatrices de notre époque, création à laquelle la communauté scientifique canadienne a largement contribué.

[Traduction]

Bien que les stratégies actuelles du gouvernement aient soutenu la recherche libre qui nous a permis de mettre au point cette boîte à outils et a favorisé le développement et la commercialisation de milliers d’entreprises canadiennes, le Canada accuse un retard sur les plans de l’adoption et de la commercialisation. Pendant ce temps, d’autres pays ont considérablement augmenté leurs investissements et se sont concentrés sur la transformation fondée sur l’IA. Le Canada doit s’adapter pour rester compétitif et tirer parti des avantages de cette technologie. Il faut aussi que la gouvernance soit appropriée et que tous profitent des retombées. Ce travail doit également tenir compte du contexte financier du Canada, de sorte qu’une utilisation stratégique des ressources sera essentielle.

Le Groupe de travail sur la stratégie en matière d’IA joue un rôle clé pour éclairer ce processus, et le gouvernement du Canada est ravi des contributions qui lui ont été fournies, notamment celles d’Olivier Blais, qui est parmi nous ce matin.

Le groupe de travail a réuni 28 chefs de file expérimentés de partout au Canada et de divers horizons afin d’élaborer une stratégie pratique, évolutive et conforme aux priorités du Canada.

Depuis que la ministre a annoncé il y a quelques semaines la mise à jour du Groupe de travail sur la stratégie en matière d’IA, l’intérêt et l’engouement ont été considérables. Nous apprécions l’engagement des membres du groupe de travail pendant cette période de transition. D’autres pays entreprennent des exercices similaires, et notre objectif est d’élaborer un plan clair et réalisable qui positionne efficacement le Canada.

[Français]

Chaque membre a été encouragé à faire part de ses points de vue et de ses idées. Bien que la collaboration ait été encouragée, le processus a été conçu pour favoriser une réflexion diversifiée et ambitieuse plutôt que des résultats fondés sur le consensus. Le ministre a également eu l’occasion de faire le suivi avec le groupe de travail afin d’examiner et d’étudier en détail les propositions.

Ce travail était une priorité pour le gouvernement, et même si les délais étaient ambitieux, nous étions convaincus que le groupe de travail formulerait des recommandations pertinentes.

[Traduction]

C’est exactement ce que nous avons constaté : un ensemble très solide de recommandations émanant de l’ensemble des membres du groupe de travail, en plus des 11 300 soumissions du grand public via le portail d’ISDE, ce qui représente un intérêt et une mobilisation sans précédent. Nous sommes très satisfaits du niveau et de la qualité des soumissions reçues dans l’ensemble. Merci beaucoup de nous avoir donné l’occasion d’être ici.

[Français]

Samir Chhabra, directeur général, Direction générale des politiques-cadres du marché, Innovation, Sciences et Développement économique Canada : Bonjour, monsieur le président et membres du comité. Merci de me donner l’occasion d’être parmi vous.

[Traduction]

Je voudrais aujourd’hui aborder brièvement deux aspects clés de votre étude, à savoir les répercussions de l’IA sur le droit d’auteur au Canada et les répercussions de la désinformation et des hypertrucages générés par l’IA sur les Canadiens et sur le marché.

En ce qui concerne les répercussions de l’IA sur les politiques en matière de droit d’auteur, le gouvernement collabore avec les parties prenantes sur ces questions depuis plusieurs années. Dernièrement, entre octobre 2023 et janvier 2024, le gouvernement a mené une consultation auprès des Canadiens, qui s’intitulait la Consultation sur le droit d’auteur à l’ère de l’intelligence artificielle générative, compte tenu de l’émergence de ChatGPT et d’autres grands modèles de langage, ou GML, qui prolifèrent sur le marché.

Le gouvernement a demandé l’avis des Canadiens sur trois domaines politiques : l’utilisation de contenu protégé par le droit d’auteur dans l’entraînement des systèmes d’IA, notamment pour la fouille de textes et de données, ou FTD; la titularité et la propriété du contenu produit par l’IA; et les questions de responsabilité, notamment lorsque le contenu généré par l’IA viole les droits d’œuvres protégées par le droit d’auteur. Plus de 1 000 réponses écrites ont été fournies au moyen du formulaire de consultation en ligne.

La majorité des Canadiens qui ont participé à cette discussion provenaient du secteur culturel et ont généralement souligné la nécessité de veiller à ce que les œuvres utilisées dans l’entraînement de l’IA ne soient utilisées que si le titulaire peut y consentir, recevoir le crédit qui leur est dû ainsi qu’une juste rémunération. Pour leur part, les industries de technologie qui ont participé à la consultation ont exprimé leur inquiétude puisque le manque de clarté du cadre actuel sur le droit d’auteur pourrait nuire à la compétitivité du Canada dans la mise en place d’une industrie de développement de l’IA.

Le gouvernement veut s’assurer que la Loi sur le droit d’auteur soutient le développement de l’IA tout en protégeant les créateurs et les titulaires du droit d’auteur. Nous surveillons de près le marché, y compris les litiges en cours et le développement du marché des licences pour l’utilisation de contenu protégé par le droit d’auteur dans l’entraînement de l’IA.

Au-delà des questions de droit d’auteur, le contenu généré par l’IA — en particulier le contenu synthétique réaliste communément appelé l’hypertrucage — soulève de nombreuses autres préoccupations pour les Canadiens. Ces inquiétudes comprennent la génération de contenu trompeur qui peut avoir une incidence sur la confiance du public, les institutions démocratiques ou la sécurité publique, ainsi que la fraude et le leurre plus ciblé. Cet aspect comprend également la génération de contenu réaliste représentant une personne sans son consentement.

Plusieurs ministères travaillent actuellement sur ces questions et s’efforcent d’y répondre. Il y a notamment l’Initiative de citoyenneté numérique au ministère du Patrimoine canadien, et les travaux du Bureau du Conseil privé visant à protéger nos institutions démocratiques et nos processus électoraux.

Pour notre part, à ISDE, nous menons plusieurs initiatives en rapport avec ces enjeux. Je citerai tout d’abord l’Institut canadien de la sécurité de l’intelligence artificielle, ou ICSIA, qui a été lancé en 2024.

L’ICSIA réunit les meilleurs chercheurs canadiens, tant à l’intérieur qu’à l’extérieur du gouvernement, afin de faire progresser la science sur la sécurité de l’IA. L’ICSIA collabore avec un réseau d’institutions partenaires connexes dans le monde, notamment aux États-Unis, en Europe, en Asie et en Afrique, afin de favoriser l’élaboration et l’adoption de mesures de protection et de normes visant à atténuer les risques liés au développement et au déploiement de l’IA, y compris pour les hypertrucages et la désinformation générée par l’IA.

Enfin, je soulignerai une autre initiative, connue sous le nom de Code de conduite volontaire visant les systèmes d’IA générative avancés, par laquelle le gouvernement a encouragé les développeurs d’IA et ceux qui déploient des systèmes d’IA à mettre en place des mesures pour mitiger les risques associés au contenu synthétique, par exemple en développant ou en mettant en œuvre des méthodes fiables et librement accessibles pour détecter le contenu généré par leurs systèmes. Merci encore de nous avoir invités à nous joindre à vous aujourd’hui. Nous attendons vos questions avec impatience.

Le président : Merci beaucoup, monsieur Chhabra.

[Français]

J’invite maintenant M. Blais à faire sa déclaration liminaire.

Olivier Blais, cofondateur et vice-président, intelligence artificielle, Moov AI, à titre personnel : Bonjour, monsieur le président et membres du comité. Je vous remercie de me donner l’occasion d’être ici et de m’adresser à vous aujourd’hui.

[Traduction]

Je pense avoir déjà été présenté, mais je me contenterai d’ajouter que Moov AI a récemment été rachetée par Publicis Canada, le plus grand groupe de communication.

J’ai passé les 10 dernières années à aider des organismes canadiens à adopter l’IA de manière responsable dans différents secteurs, et je suis ici pour vous donner un aperçu pratique de ce que l’IA signifie pour le secteur de l’information et des communications.

Tout d’abord, l’IA est passée d’un simple atout à un élément central du paysage numérique. L’IA n’est plus un outil périphérique; elle devient une infrastructure essentielle dans la manière dont l’information est créée, distribuée et modérée.

Cette évolution présente d’importantes possibilités sur le plan de la productivité et de l’innovation, mais elle entraîne aussi de nouvelles responsabilités en matière de sécurité, de droits d’auteur et de confiance du public.

Si on se concentre sur les cas d’utilisation de l’IA pour la création, la distribution et le traitement de contenu, on constate que l’IA aide à la rédaction, à la synthèse, à la traduction et à la conceptualisation. L’IA peut également générer tout type de contenu, tel que des fichiers audio, des vidéos et des images.

Les humains ont généralement le contrôle total pour ce qui est du jugement, du ton et de la précision, et cela doit rester ainsi. L’IA accélère simplement le travail.

L’IA permet de fournir plus efficacement le bon contenu au bon public, ce qui réduit le gaspillage et améliore la pertinence. Elle peut également personnaliser le contenu et l’expérience afin que les consommateurs reçoivent le bon message au bon moment.

Enfin, l’IA automatise la transcription, la création de métadonnées, l’aide à l’accessibilité et la détection de contenus préjudiciables, ce qui permet aux équipes de se concentrer sur des tâches à plus forte valeur ajoutée. Par exemple, Moov AI a mis au point il y a trois ans un système d’IA permettant de créer des capacités de transcription pour toutes les archives de la CBC et de Radio-Canada.

Permettez-moi maintenant de parler de quelques risques qui ont été mentionnés précédemment, en nous concentrant d’abord sur les droits d’auteur et la propriété intellectuelle. Trois sujets nécessitent une attention particulière.

Le premier est les règles relatives aux données d’entraînement : les créateurs ont besoin de transparence et d’un traitement équitable.

Le deuxième est la propriété des résultats générés par l’IA : les entreprises ont besoin d’avoir la certitude que le contenu qu’elles créent à l’aide de l’IA leur appartient légalement et qu’elles peuvent le commercialiser.

Le troisième est la provenance et l’attribution : les normes techniques émergentes aideront à déterminer la manière dont le contenu est produit.

Le Canada a la possibilité d’harmoniser ses politiques avec les normes émergentes, afin de protéger les créateurs tout en favorisant l’innovation.

En ce qui concerne la désinformation, la mésinformation et les « hypertrucages », l’IA générative permet la production rapide de mésinformations très réalistes et très ciblées. La menace ne réside pas seulement dans le réalisme, mais aussi dans l’ampleur et la personnalisation.

Il existe des mesures de protection techniques, notamment les normes de filigranage et d’authenticité, et leur adoption sur toutes les plateformes sera essentielle pour protéger les Canadiens.

Les enjeux pratiques auxquels font face les entreprises canadiennes sont l’indemnisation, les addendas aux contrats et la clarté des droits d’auteur. Je tiens à souligner ces trois enjeux particuliers que rencontrent actuellement les organismes canadiens qui adoptent l’IA.

Les entreprises utilisent de plus en plus des assistants IA pour transcrire le compte rendu des réunions, résumer des conversations ou faciliter la gestion des comptes. Ces outils ne génèrent pas de contenu public, mais ils traitent des informations sensibles et peuvent introduire des erreurs.

Les entreprises ont besoin de clarté sur qui est responsable en cas d’erreur de transcription par l’IA, sur la protection des données et sur le partage des risques entre les fournisseurs et les utilisateurs. Sans cadres d’indemnisation raisonnables, les entreprises hésitent à déployer des outils qui pourraient améliorer considérablement leur productivité.

De plus, en ce qui concerne les contrats, la plupart des organismes canadiens fonctionnent selon des ententes-cadres de services rédigés bien avant l’existence de l’IA générative.

Au lieu de renégocier chaque contrat à partir de zéro, nos principales entreprises d’adoption ont de plus en plus besoin d’addendas simples et standardisés pour clarifier leur niveau d’utilisation de l’IA.

Enfin, je pense que l’élément le plus important serait de clarifier les droits d’auteur pour les contenus générés par l’IA. C’est un problème croissant. Aujourd’hui, le contenu généré par l’IA couvre un large éventail, allant du contenu entièrement original créé par l’IA au contenu légèrement modifié, en passant par le contenu pour lequel des équipes ont déployé des efforts créatifs importants afin de peaufiner ou d’améliorer les résultats de l’IA. À l’heure actuelle, les entreprises ne disposent pas de lignes directrices claires quant à savoir si elles détiennent l’intégralité des droits sur les créations assistées par l’IA, si les modifications apportées au contenu humain changent la propriété et quelle est la contribution humaine requise pour que le contenu soit protégé.

Cette zone grise juridique ralentit l’innovation, en particulier dans les domaines de la publicité, de la production médiatique et des communications numériques, car les entreprises ne veulent pas investir dans du contenu si elles ne peuvent pas être certaines d’en être propriétaires.

La mise en place de lignes directrices plus claires en matière de droits d’auteur pour le contenu généré ou assisté par l’IA permettrait de libérer une énorme valeur économique tout en donnant aux créateurs et aux entreprises la confiance nécessaire pour utiliser ces outils de manière responsable.

Sur ce, je vous remercie beaucoup de votre attention et j’attends avec impatience vos questions.

[Français]

Le président : Merci, monsieur Blais.

Nous allons maintenant passer aux questions des sénateurs.

[Traduction]

J’aimerais mentionner aux sénateurs qu’ils disposent d’environ cinq minutes pour poser leurs questions. S’il reste du temps, nous pourrions avoir une deuxième série. À l’heure actuelle, il y a beaucoup de questions. Si ce n’est pas déjà fait, assurez-vous d’aviser la greffière.

La sénatrice Dasko : Je remercie les témoins. C’est notre première réunion sur le sujet, alors nous commençons tout juste à l’apprivoiser. Je dois dire que, personnellement, j’ai beaucoup à apprendre, et c’est pourquoi votre apport est si important.

Monsieur Zed, vous avez parlé du groupe de travail sur l’IA qui a réuni 28 chefs de file. Parlez-nous de ce que le groupe de travail a découvert et quelles ont été ses conclusions. Cela nous serait utile.

M. Zed : Je vous remercie de la question, sénatrice. Je vais mentionner quelques points. Ce qui était très intéressant au sujet de ce groupe de travail, c’est que ses membres venaient de différentes disciplines et de divers horizons. Nous avions des universitaires, des chefs d’entreprise et des personnes ayant une expérience à l’intérieur et à l’extérieur du gouvernement à divers endroits.

Fait intéressant, il n’y a pas eu de consensus forcément sur un sujet en particulier. Ces idées contribueront à éclairer les différents volets de la stratégie sur laquelle nous travaillons actuellement. Nous sommes en train de synthétiser les centaines de pages de rapports des membres du groupe de travail et les commentaires recueillis lors des consultations publiques dont j’ai parlé au début, et nous collaborons avec les autres ministères, car nous sommes conscients que cela a une incidence sur l’ensemble du gouvernement et, plus largement, sur notre économie.

Je ne dirais donc pas qu’il y a eu un nombre quelconque de points sur lesquels tout le monde était d’accord, mais je dirais que parmi certains thèmes qui se dégageaient, il y avait l’amélioration des connaissances nationales, l’idée d’en faire beaucoup plus pour combler le manque de compréhension de la technologie et de ses capacités dans divers contextes, y compris dans nos entreprises et la société en général. Donc, comment adopter une approche concertée pour nous assurer que nous en savons tous plus, depuis les PDG et les cadres supérieurs jusqu’aux échelons inférieurs? Il s’agissait clairement d’un élément commun.

J’ai aussi constaté que les intervenants accordaient beaucoup d’importance à l’adoption et à la nécessité de procéder de manière réfléchie et responsable. Ils étaient conscients qu’il s’agissait d’outils importants à leur disposition et s’interrogeaient sur la façon de procéder de manière réfléchie et responsable. Il y a donc eu beaucoup de discussions sur l’établissement de la confiance, la sécurité, ainsi que sur le lien entre cela et l’adoption.

La sénatrice Dasko : Vous avez dit que le Canada accuse du retard sur le plan de la commercialisation et qu’on souhaite que le secteur privé prenne les rênes. Comme ce sera le secteur privé qui s’en occupera, quel rôle devrait jouer le gouvernement?

M. Zed : C’est une très bonne question.

Ce qui distingue le Canada dans ce domaine, c’est en grande partie le fait que nous avons été les premiers à mettre en place il y a de nombreuses années une stratégie pancanadienne sur l’IA qui était basée sur des investissements dans la recherche. Nous avons joué un rôle fondamental à l’échelle mondiale dans ce secteur, et nos recherches sont beaucoup citées. Nos leaders et nos chercheurs — dont l’un a récemment reçu le prix Nobel — ont contribué grandement aux avancées, et ils sont nombreux à travailler dans ce domaine dans tout le pays.

Ma remarque sur la commercialisation et le renforcement est plus générale et ne concerne pas uniquement l’IA, même si elle l’inclut. Je pense que vous avez raison de dire que le rôle du secteur privé dans ce contexte est absolument essentiel. Le rôle du gouvernement fédéral pourrait être, par exemple, de soutenir, de fournir des incitatifs, d’éliminer les obstacles, de stimuler le développement des connaissances. Ce sont là quelques-uns des éléments que nous examinons de très près afin de comprendre où et comment le gouvernement fédéral peut intervenir.

Il s’agit également d’établir là où, dans certains cas, le gouvernement fédéral peut se retirer. Il s’agit de comprendre où et comment la combinaison de ces éléments peut nous aider à améliorer l’adoption, la mise à l’échelle et la commercialisation de l’IA.

Le sénateur Lewis : Je vous remercie de vos observations jusqu’à maintenant.

Vous avez parlé de l’absence de protection des droits d’auteur ainsi que des litiges en cours. Le gouvernement arrivera-t-il à suivre le rythme auquel évoluent les affaires et même les litiges? Les nouvelles lois ou les futures lois qui seront nécessaires devront-elles être modifiées constamment au fur et à mesure que les tribunaux rendront des décisions à ce sujet? Comme cela se passera-t-il, selon vous?

M. Chhabra : Je vous remercie de la question, sénateur.

À l’heure actuelle, la question se pose encore de savoir si la Loi sur le droit d’auteur du Canada, dans sa forme actuelle, offre une protection complète dans le cas des activités de forage de textes et de données. Il existe plusieurs points de vue différents à ce sujet. Nous suivons actuellement 13 procès devant les tribunaux canadiens qui portent sur ces questions, et c’est à eux qu’il reviendra de trancher.

Lorsque nous avons mené les consultations que j’ai mentionnées plus tôt, en 2023-2024, la communauté des créateurs était généralement d’avis qu’il n’était pas nécessaire de modifier la Loi sur le droit d’auteur et qu’elle était suffisamment solide pour protéger leurs droits. En revanche, certains acteurs de l’industrie souhaitaient obtenir plus de précisions sur une exception, plus précisément celle qui permettrait le forage de textes et de données.

Il existe bien sûr des exceptions dans la Loi sur le droit d’auteur, notamment en matière d’utilisation équitable, qui seront examinées par les tribunaux afin de déterminer si cette disposition s’applique. Bien sûr, il y a également des causes à l’échelle internationale dans le cadre desquelles on teste les limites des différents cadres de droit d’auteur afin de déterminer ce qui est permis et dans quelles conditions. Ces lois sont généralement très techniques et se concentrent sur la nature de la copie qui, en soi, a considérablement changé au fil des ans. Les définitions, les dispositions et la jurisprudence qui sous-tendent tout ce travail seront donc continuellement examinées.

C’est le cas pour toutes nos lois-cadres relatives au marché : elles sont examinées par les tribunaux, évoluent et se renforcent en fonction de la jurisprudence au fil du temps. Nous suivons de près les causes pour déterminer s’il existe un besoin ou un motif clair pour que le gouvernement envisage de mettre à jour la loi. C’est pourquoi nous avons entrepris ces consultations. Nous voulions connaître l’opinion du grand public, de la communauté des créateurs et de l’industrie pour voir où vont les choses.

Le sénateur Lewis : Vous avez mentionné le Code de conduite volontaire. Dans quelle mesure a-t-il été adopté? Avez‑vous pu en faire le suivi?

M. Chhabra : Je vous remercie encore une fois de la question, sénateur.

À ce jour, 46 signataires ont adhéré à ce code de conduite volontaire, et cela va de petits organismes canadiens à de grandes multinationales. Nous discutons aussi du code avec des pays partenaires à travers le monde qui veulent mettre en place des cadres volontaires similaires.

Tout récemment, au printemps dernier, nous avons publié une trousse d’outils à l’intention des gestionnaires afin d’aider les petits organismes qui souhaitent déployer des outils d’IA de manière responsable. Jusqu’à présent, la demande a été assez forte. La trousse est très utile et nous recevons souvent des questions à son sujet, notamment de la part d’organismes qui souhaitent aussi l’utiliser. Je m’attends à ce que d’autres viennent s’ajouter au fil du temps.

Le sénateur Wilson : Je vais céder la parole, car la liste des intervenants est longue.

[Français]

Le sénateur Cormier : Merci et bienvenue.

Ma première question est en deux temps.

La première partie de ma question concerne le groupe de travail. Est-ce que le secteur culturel siégeait au groupe de travail? Vous avez fait une consultation de 30 jours, ce qui est assez court. J’aimerais connaître cela.

La deuxième partie est pour M. Chhabra.

Lors de la récente conférence internationale sur la culture de l’UNESCO, Mondiacult, les ministres de la Culture se sont engagés notamment à la protection des droits des artistes, des créateurs et des titulaires de droits dans l’environnement numérique, à la lutte contre les usages non éthiques de l’intelligence artificielle, à la reconnaissance de la créativité humaine, au soutien de la découvrabilité de contenu culturel multilingue sur les plateformes numériques, à l’implication du secteur culturel dans l’élaboration des politiques liées à l’intelligence artificielle, et cetera. Quel est votre plan de travail considérant l’ensemble de ces thématiques importantes? Comment entendez-vous aborder ces questions?

M. Zed : Merci.

Premièrement, je dirais que certains membres du groupe de travail se sont concentrés sur ce sujet et ont donné plusieurs suggestions et recommandations.

Le sénateur Cormier : Ces gens étaient-ils du secteur culturel?

M. Zed : Ils avaient l’expérience du secteur culturel. Ils ont étudié certains points que vous avez soulevés, notamment comment les lois devraient répondre au développement de l’intelligence artificielle.

[Traduction]

Il y avait plusieurs points de vue différents sur ce qu’il fallait faire et sur les éléments à privilégier. Je dirais que le droit d’auteur et la propriété intellectuelle figuraient dans plusieurs des propositions qui ont été présentées. Elles seront toutes rendues publiques.

[Français]

Cela donnera à tous l’occasion de voir tout ce que les membres du groupe de travail ont soulevé dans ce contexte. On est en train de les traduire et d’aborder certaines questions pour que cela puisse être accessible pour tous sur le site Web. Cela donnera à tous l’occasion de voir et de tester les idées soulevées.

Le sénateur Cormier : La Coalition pour la diversité des expressions culturelles parle de trois conditions incontournables, soit l’autorisation, la rémunération et la transparence dans les principes de base pour s’assurer que la culture et les artistes soient dûment représentés. Est-ce que ces notions d’autorisation, de rémunération et de transparence sont au cœur des discussions que vous avez eues ou des résultantes de ces consultations? Monsieur Blanar?

Patrick Blanar, directeur, Direction générale des politiques-cadres du marché, Innovation, Sciences et Développement économique Canada : Bonjour.

Absolument. Ce sont des considérations essentielles. L’acronyme que l’on entend de plus en plus est ART, ce qui signifie autorisation, rémunération et transparence. C’est quelque chose dont nous sommes très conscients. Cela a d’ailleurs été soulevé dans de nombreuses soumissions lors de nos consultations en 2023 et en 2024. C’est un thème sur lequel on travaille continuellement, que l’on comprend profondément et on apprécie qu’il soit soulevé.

De plus, pour répondre à votre question sur l’UNESCO, c’est le ministre de l’Identité et de la Culture canadiennes qui s’en charge, mais la responsabilité du droit d’auteur en est une qui est partagée entre deux départements, soit Innovation, Sciences et Développement économique Canada(ISDE) et Patrimoine canadien. On travaille toujours main dans la main sur l’élaboration de politiques. Ainsi, les questions culturelles seront toujours très importantes et seront toujours considérées lors de l’élaboration de n’importe quelle politique que l’on mettra de l’avant.

[Traduction]

La sénatrice Simons : Ma première question s’adresse à M. Chhabra. J’ai été journaliste pendant 30 ans avant de me joindre au Sénat, et je suis donc très sensible à la question de la manière dont les GML, les grands modèles de langage, sont entraînés. Pour moi, il y a une tension inhérente, car ChatGPT est tellement stupide et tellement rempli d’informations erronées. On ne peut pas parler de désinformation, car ChatGPT ne nous trompe pas intentionnellement; il est trop bête pour cela. Si on ne l’entraîne pas avec des informations exactes, il devient encore plus bête. D’une certaine manière, je souhaite que les GML apprennent à partir d’articles crédibles et des meilleurs écrits. En même temps, nous devons protéger les droits de propriété intellectuelle des créateurs humains à l’origine de ce contenu. Comment trouver un moyen de lui permettre d’apprendre à partir des meilleurs écrits sans exploiter le travail des créateurs humains?

M. Chhabra : Je vous remercie de cette question, sénatrice. C’est certainement une question très importante, qui semble être d’actualité sur le marché aujourd’hui.

Ce que nous commençons à observer notamment, c’est que les entreprises spécialisées dans les GML, notamment OpenAI et d’autres, entreprennent de différencier leurs produits sur la base de la qualité, et cet effet concurrentiel qui se produit actuellement a conduit certaines d’entre elles à conclure des accords de licence directement avec des fournisseurs de contenu afin de démontrer la qualité des données utilisées pour l’entraînement et de garantir que les résultats fournis sont valides, pertinents, intéressants et tirent parti du meilleur contenu disponible.

Nous suivons actuellement plusieurs accords de licence sur le marché. Parmi eux, on peut citer celui conclu entre OpenAI et l’Associated Press, ainsi que celui signé avec Axel Springer, qui est un autre acteur majeur. D’autres exemples de ce type continuent d’apparaître dans tous les domaines et dans différents pays. C’est l’un des éléments que nous observons : les entreprises dans ce secteur qui souhaitent tirer parti de contenus précis prennent contact avec les fournisseurs et concluent des accords de licence dans certaines circonstances. Bien sûr, cela ne représente pas l’ensemble du marché, mais c’est une tendance que nous suivons de très près.

La sénatrice Simons : Monsieur Blais, je sais que c’est difficile lorsque vous êtes la seule personne à ne pas être dans la salle, mais je tiens à m’assurer qu’on vous pose également une question. Vous avez soulevé un point auquel je n’avais pas vraiment réfléchi auparavant, à savoir la protection des droits d’auteur pour les produits issus de l’IA. C’est délicat, car le droit d’auteur appartient à l’artiste qui réalise le travail créatif. Comment peut-on imaginer alors un régime de droit d’auteur qui pourrait protéger les œuvres créées par un programme d’IA?

M. Blais : Je vous remercie de poser cette question. C’est une bonne question.

L’objectif est plutôt de protéger les utilisateurs qui se servent des outils internes. Il s’agit, par exemple, d’avoir des garanties que le contenu généré à l’intérieur des paramètres d’un organisme peut rester privé et ne peut pas être utilisé comme matériel d’entraînement. C’est une préoccupation majeure pour les utilisateurs finaux. À l’heure actuelle, nous voulons améliorer la productivité en demandant aux organismes d’utiliser de plus en plus ces outils, mais c’est l’une des principales préoccupations qui font que certains employés hésitent à utiliser l’IA générative. Il s’agit donc de garantir que les différents outils restent privés au sein d’un organisme. C’était plutôt ce dont je voulais parler, et j’ai probablement mélangé les deux sujets. Je m’en excuse.

La sénatrice Simons : Je vois. C’est très intéressant.

Cela m’amène à une question plus large : dans quelle mesure pensez-vous que les utilisateurs canadiens comprennent que lorsqu’ils jouent avec ces outils — et qu’ils pensent que c’est un jeu et quelque chose d’amusant —, ils cèdent leurs photos ou œuvres d’art à ces entreprises d’IA? La semaine dernière, j’ai pris un taxi pour l’aéroport avec un sénateur, qui n’est pas présent dans cette salle, qui m’a montré les divers outils qu’il avait utilisés pour animer les photos de ses ancêtres, et j’ai pensé qu’il avait maintenant envoyé toutes ses photos de famille à une entreprise quelconque. Devons-nous faire davantage pour améliorer les connaissances des Canadiens afin qu’ils comprennent le risque qu’ils courent?

M. Blais : Bien sûr. KPMG a publié il y a quelques semaines une étude évaluant le niveau de formation en IA par pays, et nous nous sommes classés 44e sur 47. Nous devons mieux informer les Canadiens sur les risques et les moyens de les atténuer. Par exemple, lorsque nous effectuons des tâches plus sensibles, il existe des outils qui garantissent un certain niveau de sécurité, mais les gens ne savent pas comment les utiliser correctement, ce qu’il faut surveiller, ce qu’il faut vérifier après coup et ce qui n’en vaut probablement pas la peine. Tous ces éléments relatifs à l’utilisation correcte des outils et aux risques qu’ils présentent sont mal connus, ce qui crée des risques et conduit les gens à sous-utiliser ces outils, car ils ont des inquiétudes et manquent de confiance dans ces outils.

M. Zed : J’appuie tout ce que M. Blais a dit. Les craintes des gens liées aux éventualités et à l’utilisation qui pourrait être faite de leurs données gênent l’adoption. Comme M. Blais vient de le souligner, il y a un rapport entre les deux. Pour favoriser l’adoption, il faut absolument accroître la confiance, évidemment, et pour ce faire, il faut atténuer les risques dont M. Blais parlait.

[Français]

La sénatrice Miville-Dechêne : Je vais m’adresser au représentant d’Innovation, Sciences et Développement économique Canada.

Vous êtes à la fois responsable de promouvoir et de réglementer l’intelligence artificielle. Or, certains vous diront que lorsque l’on fait la promotion d’un produit, il est bien difficile de le réglementer, et que cette réglementation met souvent des bâtons dans les roues de ceux qui veulent promouvoir ledit produit. Est-ce que le ministère se trouve dans une position de conflit d’intérêts par rapport à cela? Là-dessus, je pense particulièrement aux difficultés que vous avez à faire une réglementation ou un projet de loi sur les droits d’auteur. Vous semblez dire que vous écoutez et que vous regardez, mais à un moment donné, il faut de la réglementation. Est-ce une bonne idée ou une idée dangereuse que de confier ces deux missions qui sont en apparence un peu contradictoires à la même entité?

M. Chhabra : Merci de la question. Puisqu’elle est plutôt technique, je vais répondre en anglais.

[Traduction]

Nous sommes à un stade très intéressant du développement de l’IA. La technologie est assez avancée pour avoir stimulé l’imagination du public et pour être utilisée à grande échelle. Elle est aussi assez avancée pour avoir poussé des autorités à y réagir en adoptant des règles, comme la Loi sur l’IA de l’Union européenne. En même temps, elle est assez nouvelle pour avoir conduit l’Union européenne à faire marche arrière récemment dans sa réglementation de l’IA en raison de préoccupations liées à la surrèglementation et par crainte que certaines approches et certains outils ne cadrent pas avec ses objectifs.

En 2022, le Canada a tenté de faire adopter la Loi sur l’intelligence artificielle et les données par l’intermédiaire du projet de loi C-27, mais ce projet de loi est mort au Feuilleton en janvier 2025. Des efforts ont donc été déployés au Canada pour cerner les risques posés par l’IA et les mesures à prendre pour les éviter.

Comme on en a parlé à l’époque, en particulier dans les comités et ailleurs, divers ordres de gouvernement et différents services au sein du gouvernement — dont les organismes de réglementation actuels — devront faire face aux enjeux que représente l’IA dans leur contexte particulier. Je pense, entre autres, au Bureau de la concurrence; aux facteurs relatifs au cadre du droit d’auteur; aux questions propres au secteur financier, par exemple, pour le Bureau du surintendant des institutions financières et le ministère des Finances du Canada; à Transports Canada et aux questions touchant les véhicules autonomes; ainsi qu’à Santé Canada et aux instruments médicaux. Des enjeux se poseront dans tous les milieux. L’omniprésence de l’IA sera telle que divers organismes de réglementation devront réfléchir aux mesures à prendre pour y faire face; en fait, ils y réfléchissent déjà.

La question d’élaborer ou non une politique horizontale visant l’IA dans son ensemble demeure ouverte. Le gouvernement devra continuer à évaluer et à surveiller la situation pour déterminer si du travail doit être fait dans ce domaine. Toutefois, je ne dirais pas que la question est tout à fait réglée; nous continuons à avoir des discussions générales à ce sujet et à écouter les commentaires. Bien entendu, les enjeux dont il est question aujourd’hui, notamment en ce qui concerne le droit d’auteur, sont des éléments importants. D’autres facteurs sont aussi à prendre en considération pour déterminer quels types d’approches réglementaires sont nécessaires.

[Français]

La sénatrice Miville-Dechêne : Ma question était quand même un peu plus directe que cela. N’êtes-vous pas en conflit d’intérêts en essayant à la foi de promouvoir l’intelligence artificielle et de la réglementer dans votre ministère par opposition à avoir des entités différentes qui font cela?

M. Chhabra : Merci encore pour la question.

[Traduction]

Je ne parlerais pas d’un conflit; je dirais plutôt que nous reconnaissons qu’il y a plusieurs facteurs à prendre en considération. D’après moi, il ne s’agit pas de dire oui ou non — est-ce qu’on veut plus d’IA ou moins d’IA? —; il s’agit de savoir comment s’y prendre. Il faut aussi comprendre les effets et les gérer efficacement.

Étant donné l’omniprésence de la technologie dont j’ai parlé tout à l’heure, il y aura des cas d’utilisation qui auront des effets très importants et bénéfiques sur les plans économique et social. D’autres cas d’utilisation poseront des défis; il faudra s’y pencher pour comprendre où résident les risques et la manière de les gérer efficacement, que ce soit par l’intermédiaire d’organismes de réglementation actuels ou de mandats ministériels existants à l’extérieur d’ISDE ou par le truchement d’autres ordres de gouvernement.

Tâcher d’avoir une vue d’ensemble de la situation et de comprendre la façon dont la technologie est utilisée en temps réel est une partie importante de ce que nous faisons.

Le président : Nous devons poursuivre parce qu’il y a encore quatre sénateurs, mais il ne nous reste que 12 à 14 minutes.

La sénatrice Mohamed : Mes questions s’adressent à M. Zed.

J’ai été heureuse d’entendre que le Canada avait une longueur d’avance avec la Stratégie pancanadienne en matière d’intelligence artificielle. Certains progrès que nous avons réalisés ont été remarqués sur la scène internationale; pourtant, beaucoup ont l’impression que nous accusons du retard par rapport aux États-Unis, à l’Union européenne et à la Chine. En étant aussi précis que possible, mais en excluant peut-être la souveraineté des données, pouvez-vous m’aider à comprendre où nous avons de l’avance et où nous accusons du retard?

Par ailleurs, vous avez mentionné que le gouvernement pouvait éliminer des obstacles. Pouvez-vous nous parler de certains obstacles, s’il vous plaît?

M. Zed : Certainement.

Pour répondre à votre première question — où avons-nous de l’avance et où accusons-nous du retard? —, je dirais que nous avons de l’avance dans le secteur de la recherche, et ce, depuis un certain temps. Le Canada s’est vraiment démarqué en particulier grâce aux écoles et aux instituts nationaux, notamment ceux de Toronto, de Montréal et d’Edmonton. C’est de là que proviennent les pionniers de l’apprentissage par renforcement et de l’apprentissage automatique. Ces pionniers ont mis sur pied des écoles qui ont formé des penseurs vraiment extraordinaires et visionnaires. Ces penseurs réussissent très bien sur la scène internationale; ils ont contribué à faire émerger le Canada du lot. Cela étant dit, tout ne se passe pas seulement dans ces trois centres nationaux. Des avancées et des contributions très importantes ont aussi été apportées dans le secteur de la recherche dans l’Ouest canadien et au Canada atlantique.

Là où je pense que nous accusons du retard, c’est sur le plan de la commercialisation et du développement. C’est un enjeu qui a été soulevé dans tous les rapports du groupe de travail et dans les discussions organisées par le ministre par la suite. On a constaté que d’excellentes idées naissent au Canada, ainsi que de jeunes pousses et des innovations remarquables, mais qu’elles finissent par se faire cueillir par d’autres, par se faire déplacer ou par se faire attirer vers d’autres pays ou d’autres débouchés.

Jusqu’à maintenant, les échanges ont porté, entre autres, sur les mesures à prendre pour continuer à attirer au Canada des talents de calibre mondial dans un environnement mondial hautement concurrentiel. Y a-t-il des mesures incitatives qui peuvent être mises en place? Je sais que plusieurs ministres, dont la ministre Joly et d’autres, travaillent sur une stratégie d’attraction des talents. Dans le contexte de l’IA, la question est de déterminer quelles mesures particulières peuvent être intégrées à la stratégie globale d’attraction des talents pour le domaine de l’IA. C’est un facteur important.

Les échanges portent également sur l’importance de disposer des compétences et de la formation nécessaires pour faire en sorte que nos organisations, nos entreprises et même le gouvernement du Canada soient bien outillés pour saisir les occasions qui nous permettront de retenir les talents au Canada.

Les rapports avec la formation, l’amélioration des compétences et le recyclage occupent aussi une place importante dans les discussions.

En outre, le Canada continue à se démarquer dans certains secteurs en ce qui a trait à l’IA; nous sommes toujours considérés comme un chef de file digne de confiance sur la scène internationale. M. Chhabra le constate à travers les diverses initiatives internationales auxquelles il participe. Toutefois, d’autres nous ont rattrapés par rapport à notre point de départ, ce qui veut dire qu’ils ont augmenté de façon exponentielle leurs efforts et leurs investissements, d’où ma première observation.

Pouvez-vous me rappeler votre deuxième question, s’il vous plaît?

La sénatrice Mohamed : C’est au sujet des obstacles.

M. Zed : Merci.

Il y a eu des discussions sur la conjugaison des mesures incitatives et de la formation. La formation se rapporte aux efforts à déployer. Les obstacles comprennent la création d’un environnement économique qui permet aux entreprises de croître et de prendre de l’expansion au Canada. Il semble aussi y avoir plusieurs facteurs liés aux talents à prendre en considération, par exemple dans les secteurs de l’économie et de la politique fiscale.

La sénatrice Arnold : Ma première question est simple; elle s’adresse à M. Chhabra. Vous avez mentionné le projet de loi sur l’intelligence artificielle et les données. La mort au Feuilleton de ce projet de loi vous préoccupe-t-elle?

M. Chhabra : La mort au Feuilleton de ce projet de loi ne me préoccupe pas. Il avait été proposé par le gouvernement précédent, et la Chambre des communes l’étudiait quand elle a été prorogée. Le gouvernement travaille activement à évaluer si de nouvelles interventions s’imposent et si ces interventions pourraient combiner des mesures volontaires, des approches normatives et la participation d’autres autorités.

Depuis que la Loi sur l’intelligence artificielle et les données a été proposée en 2022 dans le cadre du projet de loi C-27, beaucoup de choses sont arrivées. Comme on l’a déjà dit, la Loi sur l’IA de l’Union européenne a été élaborée, adoptée et promulguée. Aujourd’hui, des enjeux obligent l’Union européenne à faire marche arrière par rapport à certains éléments de la loi. D’autres autorités ont tenté de prendre des mesures à l’échelon national ou infranational, et divers organismes de réglementation se sont penchés sur des enjeux relatifs à l’IA relevant de leur compétence.

Il est juste que le gouvernement continue d’évaluer et de surveiller la situation pour déterminer si une loi horizontale ou un cadre réglementaire est nécessaire, ou s’il conviendrait plutôt d’adopter une approche sectorielle. Le Royaume-Uni, par exemple, privilégie une approche sectorielle depuis quelque temps déjà.

Quels sont les risques associés à l’IA dans le secteur des services financiers? Quels sont les risques associés à l’IA dans le secteur du transport? Il faut permettre aux organismes de réglementation d’évaluer la situation et de proposer des modifications réglementaires.

Les autorités s’attaquent à ces enjeux de différentes façons. À ce point-ci, je ne pense pas qu’une approche ou l’autre soit bonne ou mauvaise.

La sénatrice Arnold : Je vous remercie pour votre réponse. La multiplicité des mesures, le fait que ni l’une ni l’autre des approches ne soit bonne ou mauvaise — le Sénat se penche aussi sur ces enjeux. Je suis membre de plusieurs comités qui étudient la question et qui se demandent comment s’y attaquer. Sentez‑vous une volonté de collaborer? Les gens travaillent-ils en vase clos ou sont-ils prêts à travailler ensemble pour trouver des réponses?

M. Chhabra : Mon collègue, M. Zed, vient de souligner que nous avons reçu plus de 11 000 réponses dans le cadre du sprint de consultation sur l’IA et que plusieurs membres du groupe de travail y ont participé. Nous avons travaillé en collaboration avec des gens aux quatre coins du pays. Nous appartenons aussi à un réseau très solide de pairs de partout dans le monde et d’organisations multilatérales qui font face aux mêmes enjeux.

Je dirais que les liens sont très étroits et les discussions très dynamiques aux échelles internationale et nationale, entre l’industrie et le gouvernement, avec les organisations non gouvernementales, avec les industries créatives et les communautés, ainsi qu’avec les provinces et les territoires. Les échanges sont très dynamiques et engagés. Beaucoup de travail est réalisé en partenariat et en collaboration, y compris par l’intermédiaire du Réseau international des instituts de sécurité de l’IA, dont le Canada est l’un des membres fondateurs. En somme, nous tissons des liens avec de nombreux partenaires de diverses façons afin de pouvoir fonder nos décisions sur les meilleurs renseignements disponibles. Nous participons aussi à l’échange de renseignements.

À titre d’exemple, en juillet dernier, le Canada et l’Australie, en collaboration avec plusieurs autres instituts de sécurité de l’IA, ont publié un programme de recherche sur les risques liés au contenu synthétique. Ce programme est conçu non seulement pour les pays participants, mais aussi pour le milieu universitaire et d’autres organisations du tiers secteur. L’objectif du programme est de mettre en lumière ce qu’il faut mieux comprendre par rapport au contenu synthétique : quels sont les risques, quelles utilisations en sont faites aujourd’hui et quels outils peuvent être utilisés pour marquer le contenu synthétique afin que tous puissent faire la distinction entre contenu synthétique et contenu réel. Voilà des exemples de discussions auxquelles nous participons en ce moment.

Le sénateur Quinn : Je remercie les témoins de se joindre à nous ce matin. C’est très intéressant. Je suis assurément néophyte en la matière, mais j’ai en tête l’image d’un énorme entrepôt de données qui trône au-dessus d’Internet et qui en puise toutes les informations pour accélérer le traitement des données. C’est comme si l’IA supplantait l’être humain. Elle pense plus vite que nous et elle évolue rapidement. Le gouvernement peut-il suivre le rythme en ce qui touche les exigences réglementaires? Est-ce qu’il investit suffisamment de ressources dans ce dossier? On en parle partout. Devrait-on désigner un responsable principal? Est-ce que c’est vous?

M. Zed : Je peux répondre.

Votre image est très juste parce qu’à l’heure actuelle, la discussion sur l’IA est souvent axée sur les centres de données et sur l’alimentation des grands modèles de langage. Soit dit en passant, le Canada en a un. Très peu de pays en ont : le Canada, la France, les États-Unis et la Chine.

Le Canada se démarque sur ce plan aussi, pour revenir à une question précédente.

Ce que vous dites au sujet de suivre le rythme est très pertinent. Franchement, l’évolution, les nouvelles générations, les améliorations — tout se passe à un rythme effréné, un rythme qui dépasse les attentes qu’on avait il y a deux ou trois ans, avant les grands modèles de langage. Le travail que nous faisons pour soutenir le ministre — ainsi que pour soutenir le groupe de travail, tout en l’écoutant et en suivant ses conseils — consiste, entre autres, à définir les principes clés sur lesquels fonder nos réflexions, indépendamment de la technologie. Quels sont les principes et les valeurs qui orienteront la manière dont nous formulerons nos avis, peu importe quelle entreprise crée la technologie, et peu importe si la technologie change?

Nous essayons donc de réfléchir à des questions de principe. La réalité, c’est que lorsque l’on applique ces principes dans le monde réel, tout cela évolue assez rapidement. Je pense donc qu’il faut également reconnaître que nous ne pouvons pas y arriver seuls. Nous vivons dans une économie mondialisée, et nous devons donc réfléchir et travailler à la réduction des risques en collaborant avec d’autres pays et d’autres experts. Par ailleurs, M. Chhabra a évoqué le rôle joué par l’Institut canadien de la sécurité de l’intelligence artificielle, ou l’ICSIA. Je pense que ce type de travail est vraiment important, même si beaucoup le considèrent uniquement sous un angle plutôt technocratique. Je pense qu’en fin de compte, ce sont ces discussions et ces points de connexion au-delà de nos propres frontières qui peuvent nous aider à trouver un terrain d’entente concernant certains de ces enjeux particulièrement complexes.

M. Chhabra : J’ajouterais simplement que l’écosystème de recherche et la force de cet écosystème au Canada, dont M. Zed a parlé plus tôt, sont également des facteurs importants à prendre en considération. Je veux dire par là que vous avez tout à fait raison de dire que les choses évoluent très rapidement, mais comme nous avons investi dans ce domaine très tôt en tant que pays et que nous avons établi des liens très solides entre le gouvernement et les instituts d’intelligence artificielle, nous avons accès à des renseignements et à des connaissances sur ce qui se passe aujourd’hui et sur les orientations de la recherche.

Les investissements du gouvernement fédéral dans l’ICSIA représentent un autre élément destiné à nous aider à rester au fait de ce qui se passe du point de vue de la sécurité et de la gestion des risques. Nous avons d’autres partenaires qui travaillent, par exemple, par l’intermédiaire du Collectif canadien de normalisation en matière d’intelligence artificielle et de gouvernance des données, qui vise également à réfléchir à la manière dont nous pouvons appliquer des normes au sein de ce domaine. Pour répondre à votre autre question concernant un guichet unique, une partie de notre témoignage aujourd’hui a porté sur l’étendue de cette technologie et le nombre de cas d’utilisation différents qui existent. Je pense que vous continuerez à voir, à juste titre, un certain nombre de bureaux et d’organismes de réglementation différents s’intéresser aux enjeux liés à l’intelligence artificielle dans leurs domaines spécifiques.

Le président : Merci beaucoup, monsieur Chhabra.

[Français]

Le sénateur Aucoin : Je ne suis pas trop ferré dans le domaine.

Il y a une question dont vous avez parlé dans vos réponses et qui m’intéresse, soit celle des gens impliqués dans le domaine ou leur gagne-pain. À la vitesse si rapide à laquelle se développe la technologie, y a-t-il un effort concerté pour s’assurer d’avoir des emplois dans ce domaine? Par exemple, y a-t-il des discussions avec les universités pour s’assurer que la technologie restera ici? Y a-t-il des discussions afin de garantir des emplois, ou même d’augmenter le nombre d’emplois? Je ne sais pas si vous comprenez ma question. Est-ce que l’on perdra nos emplois au Canada? Vont-ils aller ailleurs ou s’assurera-t-on que les emplois resteront au Canada et que le nombre d’emplois pourra même augmenter?

M. Zed : Merci beaucoup de la question.

C’est très important de tenter d’avoir de l’information sur le lien entre le travail et la technologie d’intelligence artificielle.

[Traduction]

Le déplacement des travailleurs est certainement un problème, et l’une des choses que nous examinons consiste tout d’abord à comprendre ce que révèlent les données. Chaque changement technologique a entraîné des changements en matière d’emploi, et je pense que celui-ci ne fait pas exception. Je voudrais faire remarquer que l’ampleur de ce changement varie considérablement selon les personnes interrogées.

[Français]

Il n’y a pas vraiment de consensus sur l’ampleur de l’impact ni sur la manière dont cela se déroulera.

[Traduction]

Je pense qu’il sera très important pour nous, en tant que gouvernement, de réfléchir à la manière dont nous allons préparer cette transition. Quels sont les éléments clés en matière de formation susceptibles d’aider le gouvernement à faciliter certains de ces changements majeurs dans des secteurs clés importants pour le pays? Je pense que la question de la formation risque de s’avérer particulièrement importante, mais qu’il faudra également faciliter et accompagner une transition d’une telle ampleur.

[Français]

Ce n’est pas encore clair quels secteurs seront plus affectés que les autres.

[Traduction]

Je pense donc que ce qui est vraiment important, c’est qu’avant les grands modèles linguistiques, on aurait estimé que c’était plutôt dans l’automatisation que nous devions concentrer nos efforts. Aujourd’hui, les services sont inclus dans les grands modèles linguistiques, donc je pense que le champ d’application a changé, ce qui signifie que nous devons réfléchir à ce sur quoi le gouvernement et les gouvernements, au pluriel, peuvent travailler ensemble à l’échelle mondiale. Mais il est clair que cela constitue une partie importante de notre travail, et dans le cadre de notre collaboration avec nos collègues chez Emploi et Développement social Canada, cela fera partie de nos objectifs.

Le président : Nous sommes arrivés à la fin de la première série de questions. Je tiens à vous remercier tous d’être venus aujourd’hui. Je vous en suis très reconnaissant.

Monsieur Arbour, j’espère que nous aurons une autre occasion de vous rencontrer afin que vous puissiez participer verbalement. Je sais que vous étiez présent en esprit, et nous vous en remercions.

Si certains d’entre vous souhaitent nous envoyer des commentaires écrits concernant la mise à l’échelle ou l’avenir, que nous n’avons pas abordé aujourd’hui, car nous venons tout juste d’entamer le sujet, nous vous serions reconnaissants de nous les faire parvenir. Si vous avez rédigé un mémoire, veuillez nous le faire parvenir avant le 9 décembre 2025, je vous prie.

Encore une fois, merci à tous d’avoir accepté l’invitation du comité. Nos discussions se sont avérées particulièrement enrichissantes, et je suis certain que nous avons encore beaucoup de questions à vous poser. Nous allons devoir trouver un moyen de vous faire comparaître à nouveau.

Chers collègues, je souhaite à présent vous présenter notre prochain groupe de témoins. Nous avons d’abord le plaisir d’accueillir M. Wyatt Tessari L’Allié, fondateur et directeur général de Gouvernance et Sécurité de l’IA Canada, ou GSIA Canada.

Le comité a également le plaisir d’accueillir deux autres invités : M. Anatoliy Gruzd, professeur et président de recherche du Canada sur les technologies numériques de protection des renseignements personnels, Laboratoire des médias sociaux, Université métropolitaine de Toronto; et Mme Nadia Naffi, professeure agrégée en technologie éducative, Faculté des sciences de l’éducation, Université Laval, et chercheuse, Observatoire international sur les impacts sociétaux de l’IA et du numérique.

Avant d’entrer dans le vif du sujet, je tiens d’abord à remercier tous nos invités de s’être joints à nous aujourd’hui.

J’invite chacun de nos invités à prononcer un discours d’ouverture d’une durée maximale de cinq minutes, suivi d’une séance de questions-réponses avec les sénateurs.

J’invite maintenant M. Tessari L’Allié à prononcer son discours d’ouverture. Je vous en prie, monsieur Tessari L’Allié.

[Français]

Wyatt Tessari L’Allié, fondateur et directeur général, Gouvernance et Sécurité de l’IA Canada (GSIA Canada) : Merci. Monsieur le président, mesdames et messieurs les membres du comité, je vous remercie de l’honneur de m’avoir invité.

Gouvernance et Sécurité de l’IA Canada est un organisme à but non lucratif non partisan et une communauté de personnes à travers le pays. Notre point de départ est la question suivante : que pouvons-nous faire, au Canada et à partir du Canada, pour s’assurer que l’IA avancée soit sécuritaire et bénéfique pour tous?

Depuis 2022, nous fournissons au gouvernement fédéral des recommandations de politiques d’intérêt public tournées vers l’avenir, telles que nos soumissions au ministère de l’ISDE et au Conseil du Trésor. Nous avons aussi témoigné devant le Comité permanent de l’industrie et de la technologie (INDU) au sujet du projet de loi C-27.

J’apporte aussi une expérience personnelle pertinente en tant que diplômé en ingénierie et en cinéma, ayant réalisé un long‑métrage et écrit un livre.

Ce que j’espère être en mesure d’apporter au comité aujourd’hui est une vue d’ensemble des impacts sur le secteur des technologies de l’information et des communications qui s’inscrivent dans le contexte des défis de l’IA en général.

[Traduction]

Le mois dernier, dans le cadre de notre soumission officielle aux consultations du ministère de l’IA sur la stratégie nationale du Canada, nous avons dévoilé notre livre blanc 2025 intitulé Préparation à la crise de l’IA: un plan pour le Canada.

La situation fondamentale à laquelle nous sommes confrontés est la suivante : alors que l’intelligence humaine reste inchangée et que l’IA s’améliore de jour en jour, nous nous dirigeons vers un monde dans lequel l’IA pourra nous surpasser dans tous les domaines. Cela inclut la gestion d’entreprises, la prise en charge des personnes et la création de contenus originaux de haute qualité, des domaines dans lesquels nous conservons encore aujourd’hui un avantage. La mise au point d’une IA de ce niveau est l’objectif explicite de sociétés technologiques mondiales telles que OpenAI, Google, DeepMind et Alibaba.

Une IA plus intelligente que l’humain aura un impact beaucoup plus important sur la société que les modèles d’IA générative que nous avons connus jusqu’à présent. Dans le cas des industries créatives, trois implications sont à prévoir.

Premièrement, une IA plus intelligente que l’humain n’aura pas besoin d’être entraînée à partir de contenus humains protégés par des droits d’auteur. Les modèles actuels, qui doivent analyser des millions de livres ou de chansons pour produire quelque chose d’intelligible, ne sont qu’une phase transitoire. À l’instar du cerveau humain, une IA plus intelligente que l’humain sera capable d’apprendre à partir d’un volume de données relativement faible, tel que des données du domaine public, et de créer des œuvres d’art authentiques et captivantes.

Deuxièmement, la qualité du contenu généré par l’IA dépassera largement celle produite par les humains. À l’heure actuelle, lorsque nous examinons la plupart des contenus générés par l’IA, nous les qualifions à juste titre de « médiocres » ou de « bas de gamme ». Il s’agit toutefois d’une phase transitoire. D’ici quelques années, la situation pourrait s’inverser, et les contenus créés par les humains pourraient paraître relativement médiocres et bas de gamme.

Troisièmement, nous voyons déjà des plateformes comme Spotify et Amazon être inondées de contenu généré par l’IA. Ce n’est que le début. D’ici quelques années, lorsque nous aurons probablement accès à du contenu personnalisé et de haute qualité généré par l’IA à la demande et à très faible coût, nous pourrions facilement nous retrouver dans une situation où 90 % ou plus de ce que les Canadiens consomment sur leurs plateformes sera généré par l’IA.

Ce ne sont là que quelques-unes des répercussions de l’IA plus intelligente que l’humain dans le domaine restreint de cette étude du Sénat. Les répercussions sur la sécurité publique, la défense nationale et l’emploi sont encore plus préoccupantes.

C’est pourquoi un large éventail de personnalités publiques respectées, dont l’ancien chef des forces armées américaines, l’amiral Mike Mullen, le scientifique Geoffrey Hinton, lauréat du prix Nobel, et l’ancienne ministre du Patrimoine, Pascale St‑Onge, ont signé le mois dernier une déclaration appelant à l’interdiction du développement de la superintelligence, qui ne devrait être levée qu’après l’obtention d’un large consensus scientifique sur la sécurité et la contrôlabilité de cette technologie, ou d’un fort soutien au sein de la population.

Des géants du numérique tels qu’OpenAI prévoient de créer une IA plus intelligente que l’être humain d’ici un à trois ans, et plusieurs tendances suggèrent qu’elles pourraient avoir raison. Même si nous espérons qu’elles se trompent, un gouvernement responsable doit immédiatement se préparer à cette éventualité.

Nos recommandations sont donc les suivantes : premièrement, le gouvernement doit se réorienter pour faire face à la crise de l’IA. Cette étude de 2025 sur les répercussions de l’IA sur les industries créatives et de la communication est comparable à une étude de décembre 2019 sur la première pandémie de coronavirus à Wuhan, en Chine. Nous sommes tombés sur un signe avant-coureur, sur une industrie qui a été durement affectée par une première vague d’IA.

L’important, c’est ce qui va se passer ensuite, et les répercussions les plus importantes se feront sentir ailleurs. Il ne s’agit pas d’une crise que l’on peut intégrer à un programme existant ou déléguer à un ministère. Pour que la réponse du Canada soit adéquate, il faudra déployer une stratégie pangouvernementale pilotée par le Cabinet du premier ministre.

Deuxièmement, le Canada doit mener la réponse à l’échelle internationale. En effet, l’IA est un phénomène mondial, et les principaux laboratoires d’IA se trouvent aux États-Unis et en Chine. Par conséquent, le Canada ne peut pas protéger ses citoyens contre les formes néfastes de l’IA par des mesures nationales uniquement. Nous sommes bien placés pour lancer des discussions mondiales, et la politique étrangère sera notre outil le plus puissant pour faire face à la crise de l’IA.

Troisièmement, renforcer la résilience du Canada. Le fait que les industries créatives et médiatiques soient les premières touchées signifie qu’elles offrent l’occasion de tester les mesures de soutien dont d’autres secteurs pourraient bientôt avoir besoin. Adopter des mesures qui profitent à tous les Canadiens et qui sont solides face à l’avenir de l’IA, comme l’étiquetage du contenu et la mise à l’essai d’un revenu de base.

Quatrièmement et enfin, lancer un débat national sur l’IA. Les Canadiens méritent d’être informés et consultés au sujet d’une technologie qui va profondément transformer leur vie. Nous avons besoin d’audiences publiques à l’échelle nationale pour informer et consulter la population sur les décisions fondamentales concernant notre avenir collectif en matière d’IA.

Dans cette brève allocution, j’espère vous avoir fait comprendre l’importance capitale de ce qui est sur le point de se produire dans le domaine de l’IA. Pour citer le premier ministre Carney : « Nous devrons accomplir des choses que nous n’aurions jamais imaginées auparavant, à une vitesse que nous n’aurions jamais crue possible... ».

Le temps presse; mettons-nous au travail. Je vous remercie.

Le président : Je vous remercie.

Anatoliy Gruzd, professeur et président de recherche du Canada sur les technologies numériques de protection des renseignements personnels, Laboratoire des médias sociaux, Université métropolitaine de Toronto : Bonjour, monsieur le président et mesdames et messieurs les sénateurs. Je vous remercie de m’avoir invité à discuter des possibilités et des défis que l’IA présente pour le secteur canadien des technologies de l’information et des communications, ou TIC.

Mes remarques porteront sur deux domaines clés : premièrement, l’adoption de l’IA générative au Canada; et deuxièmement, son utilisation par des acteurs malveillants pour créer et diffuser de la désinformation. Cela reflète les recherches que j’ai menées avec mon collègue, Philip Mai, et d’autres collaborateurs du Social Media Lab, où nous étudions comment les contenus manipulés se propagent, et comment les plateformes numériques sont en mesure de façonner l’opinion publique.

En ce qui concerne le premier point, les outils d’IA générative changent la façon dont les gens créent — nous l’avons entendu lors de la première série de questions —, recherchent des renseignements et comprennent le monde. Leur intégration rapide et souvent non coordonnée dans plusieurs produits que nous utilisons accélère leur adoption, mais entraîne également de graves conséquences. Je vais vous présenter quelques points saillants de notre récente étude intitulée L’état de l’utilisation de l’IA générative au Canada en 2025. Nous avons constaté qu’environ les deux tiers des Canadiens ont déclaré avoir essayé l’IA générative, mais seulement 38 % se sentaient confiants dans leur capacité à l’utiliser efficacement et seulement 36 % comprenaient les règles et l’éthique qui sous-tendent une utilisation responsable. Cela suggère qu’il existe un écart croissant entre l’ampleur de l’utilisation de ces outils, et le degré de préparation et de confiance éprouvé par la population canadienne.

Notre sondage révèle également qu’environ sept personnes sur dix craignent que l’IA générative puisse être utilisée pour manipuler les électeurs ou interférer avec les processus démocratiques. Par ailleurs, environ 60 % des répondants rapportent avoir moins confiance envers les actualités politiques en ligne, car ils craignent qu’elles puissent être manipulées.

Les Canadiens sont également très favorables à la réglementation. Une majorité de près de 80 % estime que les entreprises d’IA devraient être tenues responsables lorsque leurs outils causent des dommages. Cette dernière statistique montre clairement une chose : la responsabilité devrait incomber aux entreprises qui développent, commercialisent et tirent profit des systèmes d’IA.

Pour ce qui est de la deuxième question, les mêmes caractéristiques qui rendent ces outils populaires les rendent également attrayants aux yeux des acteurs malveillants. En effet, l’IA est désormais en mesure de cloner des voix, de fabriquer des événements, et même d’usurper l’identité de n’importe qui, ce qui rend plus difficile pour la population de départir le vrai du faux. Des cas récents démontrent la gravité de cette problématique. Par exemple, l’été passé, des hauts fonctionnaires européens et américains ont reçu des messages générés par l’IA qui prétendaient provenir du secrétaire d’État américain, Marco Rubio. Ces messages comprenaient des enregistrements audio synthétiques, ce qui montre à quel point il est facile pour des acteurs inconnus d’atteindre des hauts fonctionnaires à l’aide d’outils accessibles à presque tout le monde.

Dans un autre exemple, des groupes tels que l’Institute for Strategic Dialogue ont documenté un schéma similaire dans le cadre d’une opération liée à la Russie appelée Matryoshka, également connue sous le nom d’opération saturation. Elle comprenait des tactiques telles que l’utilisation de voix artificielles pour se faire passer pour des médias et des experts. L’objectif était de diffuser des récits trompeurs sur les institutions occidentales et l’Ukraine.

Ces exemples soulignent la nécessité d’une plus grande transparence. De nombreux systèmes d’IA intègrent déjà des « références de contenu » sous forme de filigranes et de métadonnées afin d’indiquer quand le contenu est synthétique. Des initiatives menées par l’industrie, telles que la Coalition for Content Provenance and Authenticity, ou C2PA, dont vous entendrez probablement parler, ont développé des identifiants à cette fin, mais leur adoption reste faible. Même lorsque le contenu comporte ces identifiants, les principales plateformes de réseaux sociaux les suppriment souvent ou ne les affichent pas après leur téléchargement par les utilisateurs. Cela montre les limites de l’autorégulation.

Plusieurs grandes plateformes numériques sont en situation de conflit d’intérêts. En effet, le contenu synthétique est peu coûteux à produire et souvent très attrayant, ce qui profite aux modèles commerciaux basés sur l’économie de l’attention. La plupart des politiques sont également volontaires, appliquées de manière sélective et réversibles.

Le Canada devrait prendre des mesures plus proactives en exigeant des fournisseurs de systèmes d’IA générative à haut risque et des grandes plateformes en ligne qui opèrent ici qu’ils prennent en charge, conservent et affichent des métadonnées d’authenticité standard. Cela est particulièrement important pour les contenus politiques et liés à l’actualité. Cela garantirait que les signaux de provenance soient appliqués au moment de la création du contenu, et conservés au moment de la distribution, lorsque nous les voyons réellement en ligne.

Le Canada doit également renforcer son écosystème de l’information. Les Canadiens devraient avoir accès à des étiquettes claires et à des outils en ligne qui les aident à vérifier les médias synthétiques et à utiliser l’IA de manière responsable. Les fonctionnaires doivent être formés pour reconnaître et réagir aux messages indésirables générés par l’IA et aux tentatives d’usurpation d’identité.

Les Canadiens sont en faveur de l’innovation responsable. Pour instaurer la confiance et réduire les préjudices, nous devons définir des attentes claires pour les entreprises spécialisées dans l’IA et investir dans le renforcement des capacités dans l’ensemble de l’environnement informationnel.

Je vous remercie, et je serai ravi de répondre à vos questions.

Le président : Je vous remercie, monsieur Gruzd.

[Français]

Nadia Naffi, professeure agrégée en technologie éducative, Faculté des sciences de l’éducation, Université Laval et chercheuse, Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA) : Monsieur le président, mesdames et messieurs les sénateurs, chers panélistes. Je remercie le comité d’avoir invité notre observatoire, que j’ai l’honneur de représenter.

Aujourd’hui, dans toute l’histoire de l’humanité, nous sommes la société qui a le plus accès à l’information, mais aussi celle qui est la plus exposée au faux. En un clic, un contenu trompeur peut être diffusé à grande échelle.

Pour comprendre cette tension, il est utile de distinguer deux usages de l’IA : l’IA prédictive et l’IA générative.

L’IA prédictive anticipe des résultats à partir de données passées. Elle alimente les algorithmes de recommandation qui organisent la visibilité, créent des chambres d’écho et amplifient les biais.

L’IA générative, désormais largement accessible, crée des textes, des images, des voix et des vidéos difficiles à distinguer du réel. Elle soutient les médias dans la production et la personnalisation des contenus ainsi que l’accessibilité des services. Mais ces mêmes capacités, lorsqu’elles sont détournées, permettent de fabriquer des hypertrucages, de cloner des voix et de créer des identités synthétiques utilisées pour la désinformation.

Les usages malveillants sont déjà là. Des contenus synthétiques servent à déshumaniser des groupes entiers, à minimiser des violences massives et à semer le doute sur des atrocités documentées, y compris des génocides en cours, à inciter à la haine et à diffuser de la mésinformation sur les vaccins et la santé publique.

En période électorale, des contenus synthétiques peuvent manipuler la perception du public à l’égard des candidates et des candidats et éroder la confiance dans l’intégrité du processus, tandis que les systèmes de recommandation amplifient ce qui retient l’attention et l’engagement, pas nécessairement ce qui est vrai.

Le Forum économique mondial classe la mésinformation et la désinformation parmi les principaux risques mondiaux. Nous ne parlons plus de quelques fausses nouvelles, mais d’un écosystème de désinformation, de mésinformation et de sous‑information stratégique, qui inclut des campagnes d’ingérence informationnelle menées depuis l’étranger, ainsi que des hypertrucages pornographiques non consentis et une désinformation genrée qui ciblent principalement les femmes et les filles pour les discréditer et les faire taire dans l’espace public.

Parallèlement apparaît le dividende du menteur: la possibilité de rejeter des preuves authentiques en les qualifiant d’hypertrucages.

Peu à peu, nous glissons vers une posture de zéro confiance qui fragilise le débat public, la confiance dans les institutions et la vie démocratique.

Sur le plan juridique, le Canada ne dispose pas encore d’un cadre global pour l’IA générative, et les responsabilités des plateformes et des fournisseurs d’outils restent mal définies. En droit d’auteur, seule une personne peut être reconnue comme auteur.

Les contenus générés automatiquement ne sont pas protégés, mais peuvent porter atteinte aux droits d’autrui.

Face à cela, les réponses restent surtout techniques : développer des détecteurs, nécessaires mais insuffisants, car c’est un jeu du chat et de la souris.

Il faut passer de « repérer le faux » à une stratégie qui permette aux citoyens et citoyennes de « vérifier le vrai ».

Deux pistes complémentaires se dégagent.

Première piste : des infrastructures de confiance et une régulation fondée sur les risques à l’échelle de l’écosystème. Il faut aller au-delà de la seule détection et mettre en place des standards de traçabilité et de provenance comme la norme C2PA (Coalition for Content Provenance and Authenticity). Elle fonctionne comme une étiquette pour les médias numériques : elle indique qui a produit un contenu, à quel moment et quelles modifications ont été apportées. Cela offre un signal d’authenticité et contribue à limiter le dividende du menteur. Mais la provenance ne suffit pas. Une désinformation par hypertrucage implique la personne ou le groupe qui crée le contenu, l’outil qui le génère et la plateforme qui le diffuse. On ne peut pas faire reposer la responsabilité uniquement sur le groupe ciblé ou la victime, qu’il s’agisse d’une femme visée par un hypertrucage sexuel ou d’un électeur exposé à une campagne trompeuse. Il faut des obligations plus claires pour les plateformes de communication et pour les fournisseurs d’outils à haut risque en matière d’évaluation des risques, de transparence et de retrait rapide de contenus manifestement préjudiciables.

Deuxième piste : l’éducation, l’agentivité numérique morale et une forme de sobriété morale du numérique. Il faut capaciter les citoyennes et les citoyens à rester éveillés, vigilants et éclairés dans leurs environnements informationnels, à utiliser l’IA pour renforcer nos capacités humaines plutôt que pour polluer cet écosystème.

Concrètement, c’est la capacité de dire « cette désinformation s’arrête chez moi, je ne la partage pas ». Cela exige des investissements en éducation et en formation, dans les écoles, l’enseignement supérieur, les milieux de travail et les organisations communautaires. Il ne s’agit plus de promettre que chacun saura reconnaître le faux, parce que c’est une promesse qui crée un faux sentiment de confiance ou de sécurité, mais de renforcer le jugement, la capacité d’agir et la responsabilité partagée.

Nous parlons beaucoup de l’impact environnemental de l’IA. Il faut aussi parler de l’empreinte humaine de nos usages dans l’écosystème informationnel, lorsqu’ils laissent derrière eux la peur, la honte, la perte de confiance et la déshumanisation.

Au fond, il s’agit de faire en sorte que l’IA dans le secteur des technologies de l’information et des communications renforce la qualité de l’information, la confiance du public et la liberté de pensée, plutôt que de les fragiliser.

Je vous remercie.

[Traduction]

Le président : Je vous remercie, madame Naffi.

La sénatrice Dasko : J’ai quelques questions, mais je ne veux pas empiéter sur le temps de parole de mes collègues.

Monsieur Tessari L’Allié, vous avez mentionné le concept de superintelligence. En quoi consiste la superintelligence de manière concrète?

M. Tessari L’Allié : La superintelligence, en gros, est un système capable de faire tout ce que le cerveau humain peut faire, mais plus rapidement, plus efficacement et à moindre coût. L’objectif explicite de la société Frontier est de créer ce qu’elle surnomme le Saint Graal de l’IA, c’est-à-dire un système capable de surpasser le cerveau humain. En pratique, cela signifie que toute activité intellectuelle dont le cerveau humain est capable peut être réalisée de manière plus efficace. Certes, les répercussions sur l’emploi pourraient être systémiques — et nous ne savons pas exactement comment un tel système sera déployé —, mais en matière de capacité, il sera éventuellement en mesure d’égaler les capacités du cerveau humain, puis de les surclasser.

La sénatrice Dasko : Le robot ne peut pas faire la vaisselle ou parler à ma fille à ma place, par exemple.

M. Tessari L’Allié : Vous soulevez un bon point. Oui, la robotique est le deuxième élément sous-jacent. Cela prendra plus de temps, car c’est physique. Si vous suivez le secteur de la robotique, il évolue aussi très rapidement. Dans une dizaine d’années, la robotique sera plus performante que les humains. Essentiellement, nous entrons dans un monde où tout ce que nous faisons peut être fait mieux. Selon votre perspective, ce peut être positif ou négatif, mais cela change la donne. En ce qui concerne la mésinformation ou la création de contenu, vos plus belles œuvres d’art pourraient provenir de l’IA et vos campagnes les plus sophistiquées seront issues de l’IA.

La sénatrice Dasko : Elle ne peut pas vivre ma vie à ma place.

M. Tessari L’Allié : Le consommateur humain est toujours là. Le choix humain de ce que nous faisons de notre journée est toujours là. Toutefois, en ce qui concerne la compétitivité économique et d’autres défis, pour chaque décision que vous prenez au cours de votre journée, la meilleure option sera de demander au système quoi faire parce qu’il sera plus au courant et plus exact. C’est en supposant que ces systèmes sont bien conçus, mais en théorie, le cerveau humain a des limites, et ces limites peuvent être dépassées. C’est ce qui s’en vient.

Le sénateur Wilson : Ma question s’adresse à M. Tessari L’Allié. Dans votre déclaration, vous avez parlé de la nécessité d’adopter une approche pangouvernementale dirigée par le Cabinet du premier ministre. Je vais utiliser mes propres mots, mais il m’a semblé que vous préconisiez la mise en place de lignes directrices, notamment des cloisonnements, entourant l’IA plus intelligente que l’humain, ainsi que le fait que le Canada joue un rôle de chef de file sur la scène internationale. L’une des choses qui m’intéressent est la suivante : si nous adoptons ce type d’approche, comment pouvons-nous empêcher les acteurs malveillants de ne pas faire de même? Ne créons-nous pas le risque que des acteurs malveillants puissent mettre au point une IA plus intelligente que l’humain d’une manière qui sera très problématique?

M. Tessari L’Allié : Oui. Si le Canada tente d’arrêter seul l’IA super intelligente, cela ne servira à rien. Il faut adopter une approche mondiale, ce qui est extrêmement difficile, mais il semble que ce soit notre seule option. L’autre stratégie dont vous entendrez parler par Frontier Labs est que celui qui concevra le premier système d’IA plus intelligent que l’humain sécuritaire l’utilisera pour régir les systèmes d’IA plus intelligents que l’humain. Il sera le policier qui contrôlera les autres systèmes. C’est très antidémocratique et très risqué, alors notre deuxième meilleure option est de faire confiance aux entreprises de technologie pour régir l’IA pour nous.

Les modèles les plus performants viendront probablement de la Silicon Valley ou de la Chine. Donc, la meilleure défense et la meilleure possibilité pour le Canada sera de créer une dynamique mondiale, d’organiser des discussions internationales et de jouer un rôle de facilitateur en arrière-plan afin d’amener les États-Unis et la Chine à s’apercevoir qu’il est dans leur intérêt de collaborer, car ils sont confrontés à des taux de chômage extrêmement élevés et à une perte de contrôle de leurs propres systèmes. En ce qui concerne les risques liés à l’IA, nous sommes dans l’équipe des humains.

Nous avons donc l’impression qu’une tâche monumentale nous attend, mais il y a au moins une volonté de base de tenir des discussions mondiales sur ce sujet.

Le sénateur Wilson : En supposant que cette collaboration mondiale puisse avoir lieu, je présume qu’il y aura tout de même des cas à part. La Russie, par exemple, ne participe pas et fait cavalier seul. Dans quelle mesure serait-il difficile pour ce pays de créer sa propre IA plus intelligente que l’être humain, qui pourrait ensuite être problématique pour le reste de la communauté internationale?

M. Tessari L’Allié : C’est le principal défi des discussions internationales. Il faudrait que les règles soient contraignantes et universelles, ce qui est sans précédent dans l’histoire de l’humanité. Certains diraient que c’est impossible. Toutes les voies à suivre en matière d’IA sont hasardeuses, si bien que nous devons essayer de multiples stratégies pour voir si nous pouvons conclure un accord.

Vladimir Poutine ne veut pas perdre le contrôle ou le pouvoir, ni voir son pays enregistré des taux de chômage extrêmement élevés. Mais si vous concevez un système plus intelligent que vous et qui peut vous surpasser dans le monde réel, s’il y a un accident, une mauvaise utilisation ou un problème, et que ce système commence à considérer les êtres humains comme étant un obstacle pour atteindre son objectif, rien ne garantit que les laboratoires ou les gouvernements pourront un jour reprendre le contrôle. On perdrait le contrôle de façon permanente. Même si vous êtes le pire des autocrates, vous ne voudrez pas perdre le contrôle au profit d’un système d’IA. C’est là qu’il y a une incitation, même pour les acteurs malveillants, à s’entendre sur les principes de base.

Le sénateur Lewis : Les témoins du dernier groupe ont parlé du processus de consultation. Je crois que vous y avez fait référence, et je présume que d’autres témoins y ont également participé. Êtes-vous satisfait du processus, et est-il suffisant? Que pensez-vous du récent processus de consultation? Croyez‑vous qu’il permettra de faire valoir vos points de vue auprès du gouvernement?

M. Tessari L’Allié : J’ai aimé la rapidité avec laquelle le processus a été mis sur pied. Puisque tout évolue rapidement, vous devez agir rapidement en tant que gouvernement.

L’IA comporte tellement d’aspects différents et d’éléments importants sur lesquels travailler. Nous nous concentrons sur l’avenir de l’IA et pensons que c’est l’aspect le plus important, mais il y a de nombreux autres éléments. Un gouvernement responsable doit prendre tous ces éléments en considération et en faire une stratégie.

C’est un premier pas dans la bonne direction. Est-ce suffisant? Évidemment pas. Les gens s’inquiètent pour leur emploi et la mésinformation. Pour que les gens aient l’impression d’être les acteurs de l’avenir qu’ils souhaitent créer, la tenue d’audiences publiques est nécessaire. Elles seront évidemment chaotiques parce que c’est un vaste sujet, mais il est très important de donner voix au chapitre aux gens à propos de l’avenir. J’ai été impressionné par les 11 000 mémoires. Il y a 40 millions de Canadiens. Tout le monde a la possibilité de s’informer de ce qui se passe et d’avoir son mot à dire. Il y a un autre grand secteur où le Canada est bien placé pour diriger. Nous sommes relativement stables et bien éduqués. Nous avons un solide écosystème d’IA. Nous pourrions diriger la première conversation nationale au monde sur l’IA et apprendre de cette expérience comment façonner nos politiques intérieures et étrangères.

Le président : Monsieur Gruzd et madame Naffi, aimeriez‑vous ajouter des commentaires?

M. Gruzd : J’ai entendu la discussion du premier groupe de témoins. Je n’ai rien entendu de concret jusqu’à présent lors de la consultation. Les consultations font partie du processus, mais ce qui importe le plus, ce sont les décisions qui seront prises. J’ai entendu dire qu’il y a beaucoup d’opinions, mais c’est vrai dans tout type de consultation. Ce que j’aimerais entendre, c’est comment nous allons régler le manque d’accès à l’unité de traitement graphique, si nous parlons d’excellence en recherche et d’innovation dans ce domaine.

Nous investissons des millions de dollars, mais si l’on regarde des pays comme la France, ils investissent des milliards de dollars dans ce domaine.

J’aimerais également savoir comment nous protégeons les renseignements personnels des Canadiens. Nous utilisons tous ces outils, et je pense que vous avez posé quelques bonnes questions à ce sujet avec le groupe de témoins précédent, mais nous contribuons tous à nos données sans savoir ce qu’il en advient. J’aimerais que des mesures concrètes découlent de cette consultation.

Le président : Madame Naffi, avez-vous des commentaires?

[Français]

Mme Naffi : Je suis focalisée sur la question des compétences et du développement de compétences. On a parlé de mise à l’échelle, mais ce n’était pas vraiment des actions concrètes. Dans les universités, on est en pleine réflexion sur la manière de préparer nos travailleurs du futur. C’est un élément qui était dans les discussions, mais on n’a pas vraiment reçu de réponses concrètes là-dessus.

[Traduction]

La sénatrice Simons : Je vous remercie. Je vais laisser de côté un instant les « androïdes rêvant de moutons électriques » pour me concentrer sur le moment présent.

Quand j’entends les propos de M. Gruzd et de Mme Naffi, je m’inquiète vraiment pour la sécurité de notre processus électoral, car à l’heure actuelle, aucune loi n’est en place pour nous protéger contre la manipulation par l’intelligence artificielle.

Quand le projet de loi C-63 sur les préjudices en ligne — qui est mort au Feuilleton — a été envisagé pour la première fois, il n’était même pas question de l’IA. D’un point de vue pratique, je me demande quelles sont, selon vous, les options législatives qui s’offrent au directeur général des élections du Canada ou qui pourraient être incluses dans un futur projet de loi sur les préjudices en ligne. Concrètement, que peut-on faire, le cas échéant, pour protéger l’écosystème d’information canadien contre la désinformation malveillante de très haute qualité?

[Français]

Mme Naffi : C’est une préoccupation majeure. Comme je l’ai mentionné, on a accès hyperrapidement à l’information. Il y a l’intelligence artificielle générative, l’intelligence artificielle de prédiction, les biais cognitifs, et cetera. On sait que les mauvais acteurs travaillent sur biais cognitifs et visent la personnalisation de la manipulation, ce qui vient chercher les électeurs. À l’heure actuelle, tout ce travail se fait sans limites.

Je suis sur le groupe de travail avec la Commission de l’éthique en science et en technologie (CEST). Actuellement, on travaille sur l’intelligence artificielle et la démocratie pour trouver des propositions et des recommandations. On étudie une approche dans le cadre électoral sur l’utilisation acceptée de l’intelligence artificielle afin de déterminer les limites de ce qui est permis ou pas pour limiter cet abus de l’intelligence artificielle dans ces processus envers lesquels nos citoyens et citoyennes ne sont pas encore prêts à se défendre.

C’est la raison pour laquelle je parle de l’éducation : pour développer les compétences de nos citoyens et citoyennes. On peut faire tout ce qui est électoral puis les réglementations, et cetera, mais cela prendra énormément de temps pour mettre le tout en place. Pendant ce temps, nos citoyens et citoyennes seront victimes de ces manipulations. Il faut travailler sur toute la question de la sensibilisation, mais aussi sur une forme d’agentivité de ces personnes. Ce n’est pas que de dire que cela existe.

Cela a été discuté dans l’autre panel. On est tellement habitué à voir du faux qu’à un certain moment, on n’arrive plus à voir que c’est faux. Cela devient une pratique normalisée. On ne voit plus quand c’est de la manipulation. Il est important de renforcer la sensibilité de nos citoyens et citoyennes, mais aussi de développer cette agentivité. On ne doit pas s’arrêter à pouvoir déceler la désinformation et la mésinformation, mais on doit aussi informer sa communauté, s’assurer que son entourage sache que c’est du faux pour ne pas le disséminer encore.

[Traduction]

La sénatrice Simons : Vous avez raison. Cela a toujours existé. C’est juste que les ragots humains étaient beaucoup plus faciles à contenir.

Monsieur Gruzd, la semaine dernière, nous avons vu Grok être programmé pour nous dire qu’Elon Musk était le meilleur au monde dans tous les domaines. Quand je vois la médiocrité qui règne, je suis un peu moins inquiète en ce qui concerne la superintelligence, mais pensez-vous qu’il y ait quelque chose que nous devrions faire au-delà de sensibiliser les gens — ce qui est difficile — pour les protéger, ou dans un monde où nous attachons de l’importance à la liberté d’expression, existe-t-il un mécanisme pour mettre fin à la médiocrité?

M. Gruzd : Divisons cette question en deux parties. La première concerne le contenu imposé aux Canadiens — le contenu généré par l’IA, disons pendant la période électorale. La deuxième concerne le moment où les Canadiens utilisent l’un de ces systèmes pour poser des questions à propos du processus électoral ou d’une entité politique particulière.

Pour ce qui est de la première partie, où le contenu est imposé aux Canadiens, pour régler les enjeux que vous avez soulevés, il faut de la transparence. Un Canadien doit être en mesure de voir une mention qui précise clairement que le contenu a été créé à l’aide d’outils d’IA générative.

J’ai mentionné précédemment que des normes existent. D’un point de vue technologique, rien n’empêche de conserver ces informations. Le problème, c’est que les plateformes qui s’autoréglementent n’affichent pas ce contenu ou ces renseignements et ne sont pas disposées à le faire.

La sénatrice Simons : La semaine dernière, les responsables de la plateforme X ont décidé qu’ils afficheraient d’où venaient les utilisateurs, puis ont pris conscience que ce n’était pas utile pour leur modèle et ont abandonné l’idée.

M. Gruzd : Mais c’est un bon exemple. Je ne fais habituellement pas l’éloge de X ou de toute autre plateforme, mais c’est en fait un bon exemple qui a révélé aux utilisateurs de X que certains comptes de membres du mouvement MAGA sur X ne provenaient pas des États-Unis. Ils étaient pro-Trump, mais étaient situés en Europe de l’Est. C’est un bon exemple qui montre l’importance d’ajouter ces mentions pour assurer la transparence, mais il s’agissait d’une initiative menée volontairement par une seule plateforme, et ces initiatives peuvent disparaître à tout moment.

C’est là où la réglementation est importante. Vous avez le pouvoir d’imposer cette obligation ou exigence aux plateformes de médias sociaux, surtout dans le cadre d’élections. Tout contenu lié aux élections doit clairement indiquer s’il a été créé à l’aide de l’IA générative.

Le deuxième point concerne le moment où les Canadiens posent des questions à des robots conversationnels à propos des élections. C’est tout aussi dangereux que les autres enjeux dont nous avons discuté, car nous n’avons pas la capacité de vérifier les réponses qu’ils reçoivent.

En tant que chercheur canadien, je dois utiliser des fonds de recherche pour payer beaucoup d’argent afin de m’abonner à ces différentes interfaces de programmation d’applications, ou API, pour vérifier les réponses qu’elles fournissent. Ces plateformes n’ont aucune obligation de fournir un accès de recherche à leur dernière API pour que nous puissions les vérifier et demander ce que les Canadiens voient lorsqu’ils demandent pour qui ils devraient voter.

Je pense que ce sont deux problèmes que nous devons séparer.

M. Tessari L’Allié : Le principal levier dont dispose le Canada pour mettre fin à cette pratique est le suivant : s’il est impossible d’empêcher un adolescent à l’étranger de créer un hypertrucage dans son sous-sol, vous pouvez dire à YouTube et à des entreprises de médias sociaux que si elles veulent faire des affaires au Canada, elles ne doivent pas diffuser des vidéos hypertruquées et doivent mettre en place des règles relatives à la divulgation d’informations pour les chercheurs. Il s’agit évidemment d’un défi en soi, mais c’est le meilleur levier.

[Français]

La sénatrice Miville-Dechêne : Je vais continuer sur la même voie que ma collègue, puisque c’est ce qui m’intéresse aussi. Je vais plus précisément parler de l’hypertrucage. J’aimerais reprendre ce que vous avez dit, madame Naffi, sur le fait qu’on ne peut pas laisser aux consommateurs le soin de dénoncer qu’il y a un hypertrucage et de s’assurer qu’éventuellement quelqu’un quelque part dans une commission quelconque oblige à le retirer. L’éducation est très bien et j’y crois. Toutefois, pour l’instant, on a reçu les gens du ministère qui nous ont mentionné qu’ils ne sont pas prêts, qu’ils réfléchissent. Il est possible que l’on fasse éventuellement de la réglementation. Qu’est-ce qu’il est urgent de faire comme réglementation à court terme pour que les consommateurs puissent voir qu’il s’agit d’hypertrucage ou non? Il a été question à une époque de dire qu’il faut obliger les plateformes à écrire un avis indiquant que ceci n’est pas vrai. Est-ce une voie à suivre? Les mauvais joueurs n’utiliseront jamais ce signe. Que pensez‑vous que l’on peut faire très concrètement pour aider les consommateurs. Ma question s’adresse aussi à M. Gruzd.

Mme Naffi : Merci beaucoup pour la question. Comme vous le dites, les citoyens ne sont pas les uniques responsables, mais ils font partie de l’équation. Je ne veux pas être alarmiste, mais on ne sait vraiment plus, aujourd’hui, ce qui est vrai et ce qui est faux. On peut même s’inventer une vie. Je peux être avec vous présentement, mais ce n’est pas vraiment moi. Cela se passe réellement aujourd’hui, et il est très difficile de détecter lorsque cela arrive. On ne peut donc pas uniquement se fier aux citoyens; c’est pour cela que la norme C2PA existe. Elle nous permet de nous assurer que l’on connaît la provenance du contenu qui pose problème. Bien sûr, ce contenu peut être détourné, et l’on peut se poser la question à savoir s’il est adopté, mais on peut aussi pousser pour qu’il soit adopté afin que les consommateurs et les citoyens sachent d’où vient ce contenu et ce qui en a été modifié.

Il y a beaucoup de —

La sénatrice Miville-Dechêne : Comment leur dire concrètement que ce contenu est faux? Quelle serait la marche à suivre?

Mme Naffi : Avec la norme C2PA, il existe une mention qui ressemble aux étiquettes d’information nutritionnelle et d’ingrédients que l’on retrouve sur les produits vendus en supermarché. C’est la même chose pour les images et les vidéos. On a un code sur lequel on peut cliquer et qui indique notamment la date et la provenance du contenu et qui l’a créé. On le voit présentement sur différentes plateformes comme LinkedIn, par exemple. Il y a aussi les filigranes, qu’on appelle en anglais des « watermarks » invisibles, qui peuvent également aider, mais que le consommateur ne peut pas voir à l’œil nu.

Tout cela oblige donc les différents fournisseurs d’outils et de plateformes à s’assurer d’ajouter ces éléments pour protéger les consommateurs pour qu’ils sachent ce qui est réel. Un autre exemple : dans le cas de Sora, on peut voir le logo de Sora 2, mais est-ce que des personnes malveillantes ne pourraient-elles pas réussir à le faire disparaître? Je crois qu’avec les différentes technologies qui existent, il faut aussi être très strict au niveau de la censure avec les plateformes et les fournisseurs de ces outils afin de pouvoir protéger les consommateurs et les citoyens.

La sénatrice Miville-Dechêne : Monsieur Gruzd, rapidement?

[Traduction]

Le président : Monsieur Gruzd, aimeriez-vous faire des commentaires?

M. Gruzd : Oui, je suis tout à fait d’accord. L’obligation de mettre des mentions est la solution la plus facile que nous pouvons imposer aux plateformes. La technologie existe. Nous devons l’adopter. Nous pouvons certainement commencer avec le contenu sensible — la politique, les élections, les nouvelles et les informations liées à la santé. Ce contenu devrait être assorti de cette mention. Tout ne sera pas accompagné de cette mention. Vous avez mentionné que des acteurs malveillants utiliseront leurs propres modèles pour contourner cette obligation, mais nous couvrirons à tout le moins une grande partie de la médiocrité causée par l’IA, comme vous l’avez mentionné.

Par ailleurs, nous devons travailler avec les plateformes ou leur imposer des mesures de protection pour les messages instantanés. Les utilisateurs peuvent générer du contenu très délicat et s’en servir à mauvais escient dans leur communication. Lorsque quelqu’un tente de se faire passer pour l’un de vous, sénateurs, la plateforme devrait dire : « Attendez une minute. Que faites-vous? Vous n’êtes pas censés faire cela. »

Et comme la plupart des utilisateurs sont désormais orientés vers ces grands produits de Google ou de Microsoft, tant que vous couvrez ces acteurs importants, vous couvrez la majorité du marché.

[Français]

Le sénateur Cormier : Mes questions vont dans la même direction que celles de la sénatrice Miville-Dechêne. Je m’adresserais à vous, monsieur Tessari L’Allié. Vous dites être du domaine du cinéma.

M. Tessari L’Allié : Oui, sénateur Cormier.

Le sénateur Cormier : Le grand défi est de distinguer le vrai du faux et de protéger le droit d’auteur pour les créateurs, et de s’assurer de ne pas donner de redevances aux faux auteurs qui ont créé des produits synthétiques. Que pouvez-vous nous dire à ce sujet? Si l’on avait à réglementer dans ce domaine, que devraient être les critères prioritaires pour bien distinguer et identifier le vrai et le faux en production cinématographique, puisque l’on y utilise l’intelligence artificielle?

M. Tessari L’Allié : C’est une question très difficile, car une personne avec un outil performant peut créer un long-métrage seul et l’on peut difficilement savoir s’il s’agit d’une œuvre humaine ou de l’intelligence artificielle. Je n’ai pas la réponse exacte, mais je crois que cela doit être étudié rapidement, car c’est déjà un problème.

Je suis d’accord avec la décision du CRTC de ne pas reconnaître le contenu d’intelligence artificielle comme étant canadien. On s’enligne dans un monde où la majorité du contenu sera créé par l’IA, car c’est plus facile de le faire, alors la réglementation à mettre en place devrait plutôt protéger l’humain que tenter de réglementer l’IA.

Le sénateur Aucoin : Est-ce que vous avez l’impression qu’on se dirige vers une destination où la question du droit d’auteur serait remise en question dans sa définition traditionnelle? Je pense aux bénéfices et aux défis des artistes créateurs.

M. Tessari L’Allié : Absolument. En matière de protection de l’œuvre humaine, par exemple, on a déjà une Loi sur le droit d’auteur que l’on peut mettre en place telle qu’elle est. On pourrait également y ajouter des clauses par rapport à la protection de l’apparence d’un acteur ou d’un individu, comme l’appartenance à ses droits. Or, dans l’ensemble, le monde vers lequel on s’en va en est un où il y aura de l’art et de la création humaine, mais cela ne sera pas vraiment un modèle d’affaires ou une industrie en tant que telle qui seront reliés. Un humain avec un outil d’intelligence artificielle peut créer un long-métrage, alors il est difficile d’imaginer ce qui va se passer. Nous sommes déjà en période de transition. J’ai plus de questions que de réponses, malheureusement.

Le sénateur Cormier : Madame Naffi, lorsque votre collègue Dave Anctil a comparu à Patrimoine canadien ainsi qu’au Comité permanent du patrimoine canadien de la Chambre des communes, il a aussi parlé de cette question de l’étiquetage. Il a dit qu’il serait facile de rapidement faire une réglementation. Qu’est-ce qu’elle contiendrait, idéalement, cette réglementation, si l’on pouvait facilement la mettre en place?

Mme Naffi : C’est une technologie que les plateformes pourraient déjà avoir déjà dans leurs produits. Par exemple, on pourrait ouvrir Adobe Photoshop et cliquer sur un petit bouton et ces informations seraient automatiquement insérées dans la création. L’important est que les différentes plateformes et les outils acceptent d’adopter cette réglementation. Il faut l’imposer. Techniquement parlant, c’est facile de le faire, et il y a déjà beaucoup d’entreprises et de plateformes qui l’ont déjà adoptée. Il faut continuer nos efforts.

Le sénateur Cormier : Merci.

Mme Naffi : Votre question était très intéressante et j’aimerais y ajouter quelques éléments. Vous avez posé la question de savoir comment aider les gens à distinguer le vrai du faux. C’est pour cela que mon collègue a plus de questions que de réponses, et c’est aussi pour cela que je parle beaucoup de l’idée d’avoir un faux sens de sécurité. Aujourd’hui, on peut inciter les gens à porter attention à la façon dont les lèvres ou la tête bougent, par exemple, car il y a souvent quelque chose de perceptible. Or, la technologie évolue tellement rapidement que l’on ne peut pas donner des conseils ou des recommandations qui détermineront toujours ce qui est vrai et ce qui ne l’est pas. Il est même dangereux de donner cette liste de recommandations.

Le président : Merci.

Le sénateur Aucoin : Je vais être bref. Madame Naffi, je ne sais pas par où commencer, car la technologie avance tellement vite et il y a tellement de mésinformation et de désinformation. On a entendu les représentants du gouvernement se prononcer sur le sujet. Est-ce réaliste de penser que vous pouvez réglementer aussi vite ou assez vite pour tenir tête à la technologie qui évolue à une grande vitesse? Qu’est-ce qui nous fait croire que les grandes entreprises à l’extérieur du Canada vont être d’accord d’être réglementées? Il y a eu, par exemple, le cas de Netflix et de la taxation. Qu’est-ce qui nous fait croire que c’est possible? Ces technologies vont continuer de progresser. J’aimerais vous entendre là-dessus.

Mme Naffi : Absolument. Ce n’est pas réaliste. Je suis 100 % d’accord. Notre travail se concentre sur l’humain, car le temps que les règlements sont établis, la technologie change. Tout ce qui doit être adopté doit être adopté. Entre-temps, nous, les humains, sommes des victimes. Je vous ai parlé de la mésinformation et de la désinformation, mais il y a aussi la cyberfraude. Il y a des personnes aînées qui reçoivent des appels de détresse de leurs petits-enfants disant qu’ils ont besoin d’argent. Les personnes aînées courent payer de l’argent à des personnes malveillantes.

Quand je parle de l’humain, cela fait plusieurs mois que je rencontre chaque semaine des groupes de différents contextes et différents ministères. Je réalise de plus en plus que les personnes ne savent pas que nous sommes face à cet énorme danger.

Une première étape — et cela fait partie de nos travaux — est d’informer les citoyens et citoyennes que cette technologie existe et que nous vivons dans cet écosystème. Déjà là, nous les immunisons d’une certaine façon. C’est un peu comme les vaccins contre la COVID. On s’assure que lorsqu’on est exposé à ces faussetés, au moins on est conscient que cela existe. Aujourd’hui, ce n’est pas tous les citoyens et citoyennes qui savent que cela existe. Nous recevons plein de messages et de vidéos sur WhatsApp et d’autres applications qui sont partagés sans savoir que la technologie existe.

Pour revenir à votre question sur la réglementation, oui, nous n’avons pas le choix. Il faut aller dans cette direction pour imposer sur les plates-formes. Il faut le faire, mais on ne peut pas attendre pour les citoyens. Quand je parle d’investissements en éducation, je vous parle de tous les niveaux et de tous les contextes de travail. Je parle des petits à l’école jusqu’aux personnes aînées.

La mésinformation et la désinformation attaquent tous les secteurs. Quand on parle de l’IA dans les différents secteurs, ce n’est pas une question de simplement travailler sur les compétences. Il y a des attaques de cyberfraude, de mésinformation et de désinformation qui compromettent notre économie, que ce soit en santé ou autre.

Pour vous donner un exemple rapide, le Centre hospitalier de l’Université de Montréal (CHUM) — je les connais parce que je travaille avec eux — vient de sortir une initiative qui s’appelle Ma santé éclairée. Les patientes et patients, avec la pénurie de médecins, sont en train d’aller chercher leur information sur TikTok. Ils sont mal informés et ils viennent chez le médecin avec une conception erronée. Avec Ma santé éclairée, nous travaillons sur la question de la désinformation et de la mésinformation qui est en train de se passer. Nous sommes tous des patientes et patients qui ont besoin d’information. Il faut vraiment réfléchir. Il y a la réglementation, mais on a besoin d’investir dans la capacitation de nos citoyens et citoyennes. Présentement, on ne peut plus attendre.

Le sénateur Aucoin : Merci.

M. Tessari L’Allié : Oui, c’est un gros problème. En termes de solutions, premièrement, il y a la politique étrangère. Si le Canada dit à Google de faire quelque chose, ils vont nous ignorer. Si on crée une connexion avec l’Europe et l’Amérique latine et que nous arrivons à Google en tant que collectif multinational, ils vont nous écouter davantage. Deuxièmement, cela prend beaucoup de temps pour mettre en place une loi. Il faut penser à où sera l’IA dans deux, trois et cinq ans Il faut à la fois commencer avec l’éducation pour le moment, mais à long terme, il faut penser à où sera l’intelligence artificielle dans cinq ans. C’est là où la [Difficultés techniques] l’intelligence et tout le reste. Il faut faire attention.

[Traduction]

La sénatrice Mohamed : J’ai tant de questions que je ne sais pas trop par où commencer. Je vais les utiliser judicieusement, monsieur le président.

D’une part, nous entendons beaucoup parler de l’importance d’améliorer la littératie et la familiarisation. Je pense aux nouveaux arrivants et aux personnes âgées, et à quel point cela peut être difficile. D’autre part, comment dissuader les gens? Parfois, nous utilisons le Code criminel, et les crimes haineux en sont un très bon exemple. Un crime est commis; si c’est un crime haineux, vous écopez de peines supplémentaires.

Je suis peut-être naïve. Nous sommes encore au stade préliminaire de nos conversations, mais quelqu’un pourrait-il nous dire s’il serait utile d’aborder la question de la fraude commise à l’aide de l’IA dans le Code criminel? Cela aurait-il un effet dissuasif? Ajouteriez-vous une peine additionnelle si certains types de technologies étaient utilisées? Je ne sais pas si je suis naïve, mais quel est l’effet dissuasif de cette mesure, étant donné que ce phénomène est présent, répandu et effrayant? Tout le monde peut répondre à cette question. Je vous serais reconnaissante de m’aider à comprendre.

M. Gruzd : Essentiellement, la responsabilité devrait toujours incomber aux entreprises qui conçoivent et déploient des systèmes d’IA plutôt qu’aux particuliers. Je n’appuierais pas forcément cette idée. Peu importe les outils utilisés, ils ne sont peut-être pas au Canada. Imposer une plus grande responsabilité pénale sur une personne en Europe de l’Est n’aidera pas nécessairement les Canadiens.

Encore une fois, la meilleure option est de faire pression sur les entreprises spécialisées en IA et à leur faire assumer leurs responsabilités, en particulier pour les préjudices potentiels causés aux Canadiens.

La sénatrice Mohamed : Je ne suis pas contre l’idée, mais en plus de leur faire assumer leurs responsabilités, y a-t-il d’autres mesures que nous pourrions prendre? Je comprends que c’est parfois un phénomène mondial et qu’on ne peut pas toujours savoir si le Canada est en cause, mais les acteurs ont passé par le Canada à un moment donné.

[Français]

Mme Naffi : Si je peux intervenir, je suis 100 % d’accord avec vous. Il y a des attaques qui se font chez nous. Nous n’avons qu’à penser aux jeunes dans les écoles qui prennent des deep nudes de leurs camarades. Cela doit être absolument interdit. On parle aussi de personnes chez nous qui fraudent des personnes aînées, de la désinformation contre les femmes, ainsi de suite.

À l’heure actuelle, dans notre Code criminel, on n’y trouve même pas la cybercriminalité. Elle n’existe pas. Tout ce que l’on fait est de prendre d’autres articles du Code criminel pour aller chercher ces différents actes de la cybercriminalité. Il faut une révision du Code criminel pour s’adapter à notre ère et aux différentes technologies qui sont mises en place et accessibles à tout le monde.

Pour vous donner un exemple très banal de monsieur et madame Tout-le-Monde, une mère a décidé de faire un hypertrucage des rivales de sa fille dans l’équipe de meneuses de claque. Elle a créé un hypertrucage de ces filles pour ruiner leur réputation. Une mère a fait cela pour que sa fille puisse avoir une place dans l’équipe de meneuses de claque. Je ne vous parle même pas d’un cas d’aujourd’hui. Cela s’est passé il y a plusieurs années. Cela doit arrêter. Les personnes doivent savoir que si elles vont avancer avec ces actions malveillantes, elles seront punies d’une certaine façon dans notre Code criminel. Il faut prendre en considération les différents cas qui se posent et s’assurer que les personnes ne pensent pas à utiliser ces outils pour nuire à autrui. Même là, on parle de quelqu’un qui va faire du mal.

Avez-vous vu passer le AI Homeless Man Prank? Ce sont des jeunes qui ont pris des photos, ont mis des personnes sans abri dans leur salon et ont envoyé cela à leurs parents. Les parents étaient en vacances. Ils étaient alarmés et ont appelé la police. La police s’est mobilisée. À la fin, c’était juste une farce, mais les jeunes n’en étaient pas conscients. Ensuite, c’est devenu une tendance sur TikTok. Les jeunes n’étaient même pas conscients qu’en faisant ces actes, même si ce sont des farces, ils causent du tort. Ils déshumanisent des personnes vulnérables et mobilisent nos ressources. Toute cette réflexion doit être prise en considération dans nos planifications.

La sénatrice Mohamed : Merci.

Le président : Je vous laisse le commentaire final.

[Traduction]

M. Tessari L’Allié : J’ajouterais que l’application de la loi est un élément important. Même si on fait appliquer les lois actuelles, on peut faire beaucoup. Toutefois, le gouvernement doit posséder les compétences nécessaires pour suivre ces activités et avoir les talents pour rivaliser avec les entreprises. Il est très difficile de surveiller la conception et l’utilisation de logiciels. Nous devrions donc faire appliquer les lois, mais c’est un défi de taille qui nous attend.

Le président : Maintenant que notre temps est écoulé, j’aimerais remercier les témoins de la discussion que nous avons eue et des réponses qu’ils ont fournies à nos questions. Nous leur en sommes très reconnaissants.

C’est un sujet fascinant. Nous ne sommes qu’au début de l’étude.

J’aimerais dire aux témoins que s’ils veulent nous écrire sur n’importe quel sujet, ils doivent le faire d’ici le 9 décembre. Nous accepterons tout ce que vous pourriez nous envoyer comme des mises à jour et des renseignements à valeur ajoutée.

Avant de conclure la réunion, je tiens à remercier toute l’équipe de soutien du comité, tant ceux qui sont au premier plan dans la salle que ceux qui travaillent en coulisses. Je vous remercie de votre travail, qui contribue énormément au succès de notre travail en tant que sénateurs.

(La séance est levée.)

Haut de page