La nécessité d’un développement et d’une utilisation sûrs et productifs de l’intelligence artificielle
Interpellation--Ajournement du débat
11 juin 2025
Ayant donné préavis le 28 mai 2025 :
Qu’elle attirera l’attention du Sénat sur la nécessité d’un développement et d’une utilisation sûrs et productifs de l’intelligence artificielle au Canada.
— Honorables sénateurs, l’intelligence artificielle est l’une des technologies les plus révolutionnaires de notre histoire. Qu’il s’agisse d’améliorer les soins de santé, de promouvoir l’innovation dans des secteurs comme l’éducation, la culture et la défense, ou d’offrir de nouvelles possibilités dans nombre de domaines comme la recherche scientifique et la sécurité nationale, l’intelligence artificielle pourrait changer notre mode de vie, nos méthodes de travail et nos interactions. L’intelligence artificielle a déjà commencé à transformer de nombreux aspects de notre société grâce à l’automatisation et à la résolution avancée de problèmes. Les effets de l’intelligence artificielle se font sentir partout. Cependant, à mesure qu’elle devient une partie de plus en plus intégrale de nos vies, nous devons prendre conscience de ses risques potentiels. Ce n’est pas un outil que nous pouvons contrôler facilement. Si nous ne prenons pas les précautions nécessaires, l’intelligence artificielle — ou IA —pourrait causer des dommages considérables à certaines communautés et à la société dans son ensemble.
Par exemple, Geoffrey Hinton, le « parrain de l’intelligence artificielle », a averti que nous entrons dans une ère où les machines pourraient surpasser l’intelligence humaine. Il décrit l’IA comme une création accidentelle née d’erreurs humaines et fait état de graves préoccupations, telles que les informations trompeuses et les préjugés dans les pratiques d’embauche et le maintien de l’ordre. Ce ne sont là que quelques exemples des risques que nous, en tant que décideurs, devons prendre en considération.
L’intelligence artificielle n’est ni bonne ni mauvaise en soi; c’est un outil. Ses effets sur la société seront déterminés par la façon dont nous choisirons de la réglementer, de la développer et de l’utiliser. C’est pourquoi il est essentiel d’agir dès maintenant. Nous avons déjà pris du retard dans la compréhension totale et la gestion de cette technologie en rapide évolution.
Chers collègues, cette interpellation nous rappelle que nous devons absolument faire preuve de leadership en relevant les défis posés par l’IA, tout en tirant profit de son énorme potentiel. Nous ne pouvons pas nous permettre de répéter les erreurs commises avec les médias sociaux, où on les a laissés croître à un rythme effréné sans aucun garde-fou, ce qui a eu des conséquences imprévues sur notre démocratie, notre culture et la santé publique.
En tant que sénateurs, nous avons le devoir de protéger les Canadiens contre ces risques tout en orientant le développement de l’IA vers des résultats qui servent l’intérêt public. Il s’agit non seulement d’une priorité nationale, mais aussi d’une responsabilité mondiale, et le Canada peut et doit faire entendre sa voix pour façonner l’avenir de la gouvernance de l’IA.
Dans mon discours ce soir, je commencerai par parler du Rapport international sur la sûreté de l’IA et des développements récents dans le secteur canadien de l’IA. J’aborderai ensuite la manière dont l’IA est envisagée à l’échelle mondiale, en m’intéressant plus particulièrement aux conclusions du Sommet pour l’action sur l’intelligence artificielle de Paris.
L’une des publications incontournables pour nous guider dans ce paysage en pleine évolution est le Rapport international sur la sûreté de l’IA, qui est dirigé par Yoshua Bengio, une figure mondiale de premier plan dans le domaine de la recherche sur l’IA ici au Canada. Ce rapport constitue une ressource essentielle pour comprendre les risques mondiaux associés à l’IA, notamment les cybermenaces, la mésinformation, les perturbations du marché du travail et le potentiel d’utilisation de l’IA à des fins militaires.
Les auteurs du rapport notent ce qui suit : « Les responsables des politiques publiques doivent arriver à créer des cadres réglementaires souples et résistants aux changements technologiques au fil du temps. » Ils ajoutent : « Un débat scientifique et public constructif sera essentiel pour permettre aux sociétés et aux responsables des politiques publiques de faire les bons choix. »
Ce sentiment souligne l’importance d’un dialogue continu et d’une réglementation souple afin de garantir que l’IA se développe de manière à maximiser ses avantages tout en minimisant ses risques.
Le rapport met également en garde contre le danger de voir le développement de l’intelligence artificielle se concentrer dans quelques pays, comme les États-Unis et la Chine, ce qui pourrait entraîner un déséquilibre mondial dans le leadership en matière d’intelligence artificielle. Il souligne le besoin urgent d’une collaboration internationale et d’évaluations complètes des risques pour s’assurer que l’intelligence artificielle ne dépasse pas notre capacité à la réglementer.
Alors que nous envisageons le rôle du Canada dans le développement de l’intelligence artificielle, le Rapport international sur la sûreté de l’IA nous offre un cadre essentiel que nous pouvons prendre en compte dans notre réflexion sur la manière de gérer l’intelligence artificielle. Il nous encourage à adopter une perspective mondiale sur la sécurité de l’intelligence artificielle tout en tenant compte des priorités nationales.
Je souhaite mettre en lumière quelques-uns des progrès récents réalisés ici au Canada. En novembre 2024, le Canada a pris une décision importante en lançant l’Institut canadien de la sécurité de l’intelligence artificielle. L’institut recevra un budget initial de 50 millions de dollars sur cinq ans dans le cadre d’un investissement de 2,4 milliards de dollars, annoncé dans le budget fédéral de 2024, qui comprend un projet de loi sur l’intelligence artificielle et les données et le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés.
En avril 2024, l’ancien premier ministre Justin Trudeau a annoncé un investissement de 2,4 milliards de dollars pour développer le secteur de l’intelligence artificielle au Canada. Cela comprend la Stratégie canadienne sur la capacité de calcul souveraine pour l’IA, qui prévoit 700 millions de dollars pour construire et développer des centres de données, 300 millions de dollars pour aider les petites et moyennes entreprises à assumer les coûts des ressources informatiques utilisant l’IA et 1 milliard de dollars pour améliorer le calcul à haute performance pour les chercheurs universitaires.
Plus récemment, en mars 2025, la présidente du Conseil du Trésor a dévoilé la toute première stratégie du Canada en matière d’intelligence artificielle pour la fonction publique fédérale. Cette stratégie, qui sera mise à jour tous les deux ans, vise à améliorer les opérations et les services gouvernementaux en veillant à une utilisation sûre, éthique et responsable de l’intelligence artificielle. Elle comprend des objectifs comme la création d’un centre d’expertise en intelligence artificielle, l’assurance de la sécurité des systèmes d’intelligence artificielle, la promotion du développement des talents et celle de la transparence et de la responsabilité.
Comme chacun le sait, le premier ministre Carney a récemment nommé l’honorable Evan Solomon à titre de tout premier ministre responsable de l’intelligence artificielle et de l’innovation numérique. Hier, le ministre Solomon a prononcé son premier discours public lors de la Conférence Canada 2020, où il a présenté les piliers de la stratégie du Canada pour l’industrie de l’intelligence artificielle : premièrement, développer l’intelligence artificielle; deuxièmement, adopter l’intelligence artificielle dans tous les secteurs; troisièmement, renforcer la confiance dans l’intelligence artificielle grâce à une réglementation visant à protéger les données et la vie privée; et quatrièmement, assurer la souveraineté du Canada en matière d’intelligence artificielle pour la défense et la sécurité. J’ai hâte de connaître les détails du plan du gouvernement Carney concernant l’intelligence artificielle au fur et à mesure qu’il prendra forme.
Chers collègues, compte tenu de la dynamique actuelle dans ce domaine, nous avons, en tant que sénateurs, la responsabilité d’examiner attentivement les stratégies et les investissements proposés. Nous devons nous demander s’ils servent véritablement les intérêts de tous les Canadiens et réfléchir sérieusement à leurs répercussions à long terme. Nous aurons ainsi l’occasion de poser les bonnes questions et d’envisager la voie à suivre.
Pour comprendre la place de l’intelligence artificielle au Canada, nous devons tenir compte du contexte mondial. Le monde évolue rapidement et de nombreux pays vont de l’avant avec des initiatives en matière d’intelligence artificielle. En février 2025, la France et l’Inde ont accueilli le Sommet pour l’action sur l’intelligence artificielle à Paris, où des dirigeants, des experts et des chercheurs ont discuté de l’avenir de l’intelligence artificielle. Le sommet s’est concentré sur cinq grands thèmes : l’intelligence artificielle au service de l’intérêt général, l’avenir du travail, l’innovation, la confiance et la gouvernance mondiale. Cependant, un domaine essentiel n’a reçu qu’une attention limitée : la gouvernance de l’intelligence artificielle.
Au sommet, le vice-président américain Vance a fait part de ses inquiétudes quant au risque qu’une réglementation excessive n’entrave l’innovation, faisant valoir que les pays démocratiques pourraient se retrouver à la traîne par rapport aux pays autoritaires, qui imposent moins de restrictions. Il s’agit là d’un débat crucial qui met en évidence les clivages et les nuances qui existent à l’échelle mondiale dans ce domaine. Certains partisans d’une réglementation stricte pour protéger la société font passer les intérêts économiques avant la gouvernance. Toutefois, beaucoup sont d’opinion mitoyenne, souhaitant tirer avantage de la prospérité qui pourrait accompagner l’intelligence artificielle d’une manière qui respecte nos valeurs démocratiques, notamment les droits de la personne, l’inclusivité et la primauté du droit.
Malgré ces différences, 62 pays, dont le Canada, ont signé la Déclaration sur l’intelligence artificielle durable et inclusive pour la population et la planète issue du Sommet pour l’action sur l’intelligence artificielle. Cet engagement à faire en sorte que l’intelligence artificielle soit développée de manière responsable reflète notre devoir commun de faire face aux défis que pose l’intelligence artificielle. Toutefois, les États-Unis et le Royaume-Uni ont choisi de ne pas signer la déclaration, invoquant, comme raison, le libellé trop restrictif et des préoccupations concernant les cadres de gouvernance. Cette dissidence met en évidence le fait que même parmi les pays habituellement alliés, les opinions divergent à l’égard de l’intelligence artificielle.
En même temps, en janvier dernier, le président des États-Unis, M. Trump, a annoncé un investissement de 500 milliards de dollars dans des projets d’infrastructure du secteur privé liés à l’intelligence artificielle, projets dirigés par des entreprises telles qu’OpenAI, Oracle et SoftBank. La Commission européenne a également promis d’investir plus de 200 milliards d’euros dans l’intelligence artificielle et l’innovation dans le domaine numérique. Le président de la France, Emmanuel Macron, a annoncé un projet d’investissement de 109 milliards d’euros dans l’intelligence artificielle, notamment dans de nouveaux centres de données.
Ces investissements mondiaux rapides montrent à quel point il est urgent de se pencher sur l’importance croissante de l’intelligence artificielle et la nécessité de déployer des efforts coordonnés à l’échelle mondiale pour la réglementer. Sans normes et sans coopération nationales et mondiales coordonnées, nous risquons de laisser les marchés mondiaux diriger le développement de l’intelligence artificielle sans supervision, ce qui peut être au détriment du bien public. Cela souligne l’importance de tenir ici, au Canada, des discussions cruciales sur la manière dont on laissera la priorité à la réglementation, à la transparence et aux droits de la personne dans le développement de l’intelligence artificielle, tout en restant un acteur clé dans la course mondiale à l’intelligence artificielle.
Dans le contexte de ces mouvements mondiaux, la présente interpellation nous offre une occasion unique d’évaluer les répercussions de l’intelligence artificielle sur notre avenir, ici, au Canada. Si nous voulons demeurer en tête de peloton dans la course mondiale à l’intelligence artificielle, nous devons axer nos efforts sur la réglementation, la transparence et les droits de la personne. Pour maximiser les avantages de l’intelligence artificielle au Canada, nous devons prendre les devants afin d’être en mesure de déterminer et de créer notre propre écosystème d’intelligence artificielle — non pas un écosystème inondé de produits et de technologies que nous ne pouvons pas contrôler, mais un écosystème où nous établissons des normes et des règles pour garantir que les technologies sont sûres, justes, de haute qualité et proviennent de pays qui partagent nos valeurs démocratiques. Une réflexion approfondie doit guider la croissance de l’intelligence artificielle. Nous ne devons pas laisser les forces du marché ou les priorités gouvernementales diriger son développement sans supervision. La réalité est que les décisions que nous prenons aujourd’hui façonneront l’avenir de l’intelligence artificielle pour des générations.
Dans le rapport sur la sécurité de l’intelligence artificielle intitulé International AI Safety Report, Yoshua Bengio, un des chercheurs prééminents en matière d’intelligence artificielle au Canada, affirme que « l’IA ne nous est pas imposée; ce sont les choix que font les humains qui déterminent son avenir ». Cette citation résume bien l’urgence de la situation et la responsabilité qui nous incombe en tant que décideurs. Parlant de responsabilité, Yoshua Bengio vient de lancer un organisme à but non lucratif nommé LoiZéro, dont l’objectif est de réunir des chercheurs de classe mondiale du domaine de l’intelligence artificielle afin de trouver des solutions techniques pour la création de systèmes d’intelligence artificielle sécuritaires. Les entreprises du genre montrent que nous devons prendre des décisions délibérées et éclairées visant à prioriser la sécurité publique et les avantages pour la société.
Si l’avenir de l’intelligence artificielle demeure incertain, une chose est sûre : la trajectoire qu’elle suivra dépendra des décisions que nous prenons. Nous avons le pouvoir d’orienter cette technologie de façon à ce qu’elle favorise le progrès et de limiter les risques qui y sont associés. Il est important de garder en tête que la confiance et la sécurité favoriseront la productivité...
Sénatrice Moodie, je suis désolée de vous interrompre, mais votre temps est écoulé. Merci.
Merci.
Honorables sénateurs, je prends la parole au sujet de l’interpellation de la sénatrice Moodie, qui porte sur une question urgente : la réglementation de l’intelligence artificielle au Canada.
D’entrée de jeu, je tiens à souligner que Nick Bostrom, un philosophe de l’Université d’Oxford, a soutenu que, étant donné que les ordinateurs avancés ont la puissance nécessaire pour réaliser des simulations, il est fort probable que nous vivions dans une simulation. Dans cette optique, vous voudrez peut-être prendre mon discours d’aujourd’hui avec un grain de sel, mais attendez que j’aie terminé, car ce n’est peut-être pas le cas.
Chers collègues, nous sommes à l’aube d’une transformation profonde. L’intelligence artificielle représente un changement de l’ampleur de la révolution industrielle, de la découverte de l’énergie nucléaire ou de l’avènement du langage. L’intelligence artificielle n’est pas simplement une nouvelle technologie, c’est un multiplicateur de force. Il s’agit d’une capacité tous azimuts qui évolue plus rapidement que nos institutions, nos lois et notre imagination.
Aujourd’hui, je vais vous parler de quatre aspects de cette question. Primo, je vais vous présenter les grandes répercussions de l’intelligence artificielle et les règlements que nous pourrions adopter pour notre démocratie et la société. Secundo, j’examinerai le confinement — technique, normatif et juridique — de l’intelligence artificielle en tant que cadre de gouvernance. Tertio, je passerai en revue les approches mondiales, de l’Union européenne aux États-Unis, en passant par la Chine, avant d’examiner les efforts déployés par le Canada au moyen du projet de loi C-27 et de la Loi sur l’intelligence artificielle et les données. Enfin, je proposerai des solutions concrètes pour renforcer notre approche afin que l’intelligence artificielle demeure un outil au service de l’intérêt public, et non un outil qui lui nuit.
Mon premier point concerne les implications sociales de l’intelligence artificielle et la réglementation potentielle. Certains affirment que la réglementation freine l’innovation. Toutefois, dans le contexte de l’intelligence artificielle, nous voulons de l’innovation accompagnée d’une solide gestion des risques. C’est là que la réglementation potentielle entre en jeu. Un cadre réglementaire solide peut attirer les investissements, favoriser l’innovation et renforcer la confiance du public. C’est pourquoi la réglementation potentielle doit traiter des droits civils, notamment les droits à la vie privée, à la liberté d’expression et à la transparence, ainsi que des préoccupations liées à la sécurité et à la reddition de comptes.
Les enjeux sont considérables. L’intelligence artificielle n’est plus un domaine marginal. Elle transforme notre façon de travailler, d’apprendre, de communiquer et de gouverner. Dans ses formes les plus avancées, l’intelligence artificielle ne se contentera pas de nous assister, elle nous remplacera, nous optimisera, nous prédira et parfois nous surpassera. Des finances à la santé, en passant par la défense et la justice, la portée de l’intelligence artificielle s’étend rapidement. Son pouvoir croissant offre des possibilités, mais comporte également des risques importants pour notre société.
Chers collègues, ce n’est pas de l’alarmisme. L’État démocratique moderne nous a jadis promis sécurité, prospérité et droits démocratiques. L’intelligence artificielle menace aujourd’hui de renverser ces piliers.
Qu’en est-il de la sécurité? Imaginez un monde où des drones autonomes et d’autres armes contrôlées par des algorithmes mènent des guerres, où des machines surpassent d’autres machines dans des conflits que nous ne pouvons même pas comprendre. Où est la responsabilité humaine? Où cela s’arrête-t-il? En même temps, sans l’intelligence artificielle avancée, notre pays et nos alliés seraient vulnérables aux capacités avancées en matière d’intelligence artificielle de nos adversaires potentiels.
En ce qui concerne notre prospérité, les systèmes d’intelligence artificielle pourraient finir par dominer — et même manipuler — les marchés financiers. Un petit nombre d’entreprises peuvent finir par contrôler les machines qui influencent votre hypothèque, votre pension ou votre emploi. La technologie a déjà remplacé de nombreuses formes de travail physique et, maintenant, même les domaines de la pensée humaine, de la créativité et de l’expression artistique sont en péril. Quels nouveaux défis l’intelligence artificielle posera-t-elle dans une société où le contrat social a longtemps assuré un équilibre fragile entre les avantages de la libre entreprise et la protection d’un filet de sécurité sociale?
L’intelligence artificielle pourrait aussi nuire à la justice sociale. Une étude publiée en 2019 dans la revue Science a révélé que l’intelligence artificielle dans le système de santé américain était beaucoup moins susceptible de recommander des soins aux patients noirs qu’aux patients blancs atteints de maladies semblables — non pas par malveillance, mais parce qu’elle reflétait une discrimination passée intégrée aux données. Il ne s’agit pas de préjugés conscients; il s’agit d’un préjudice structurel, et il est invisible jusqu’à ce qu’il devienne systémique.
Enfin, le contenu algorithmique et la manipulation des médias sociaux menacent d’empêcher les gens d’exercer véritablement leurs droits démocratiques. Les systèmes d’intelligence artificielle générative, comme ChatGPT, Claude, Gemini, Llama, Grok et Copilot, sont intégrés dans nos navigateurs, nos messageries et nos outils de productivité. Ces outils ne se contentent pas de générer du texte, ils ont une influence. Ils orientent les flux d’informations, cadrent les débats et leur donnent un ton émotif. Avec quelques ajustements mineurs, des acteurs malveillants peuvent en faire des armes pour inonder à moindre coût l’espace public de désinformation, d’« hypertrucages » et de propagande. C’est d’autant plus dangereux dans un monde où l’intelligence artificielle risque de nuire au développement de l’esprit critique des jeunes.
Même si le danger que l’intelligence artificielle devienne malveillante existe, le problème criant, c’est qu’elle est indifférente. Elle ne se soucie de rien. Elle optimise. Elle est un reflet du monde tel qu’il est plutôt que tel qu’il devrait être. À moins de délibérément choisir d’encoder des valeurs et des limites, l’intelligence artificielle se rabat par défaut sur la logique du profit, du pouvoir et de la prédiction.
Il existe un autre danger, encore plus subtil, celui que les machines interprètent mal nos intentions. Les êtres humains sont des amas de contradictions ambulants. Nous sommes tout sauf cohérents. Nous voulons à la fois l’aventure et la sécurité, la vie privée et la commodité. Nous mentons. Nous changeons d’avis. Nous changeons d’humeur. Nous exagérons. Nous regrettons. Comment les machines peuvent-elles nous comprendre alors que nous contenons des multitudes?
Pourtant, nous sommes sur le point de confier aux machines non seulement nos tâches, mais aussi nos décisions, voire notre éthique. Comment les machines concilieront-elles les droits individuels et l’intérêt général, un dilemme qui continue de faire débat dans de nombreux contextes?
Il ne s’agit pas seulement d’un problème technique. C’est un défi politique, un test moral, une crise de la bonne gouvernance.
Alors, comment réagir?
Voilà qui m’amène à mon deuxième point : le confinement, non pas en réprimant, mais en administrant. Non pas en brandissant la peur, mais en engageant la responsabilité. Le « confinement » signifie le contrôle démocratique des outils que nous créons. Il repose sur trois principes.
Premièrement, le confinement technique, qui fait référence à ce qui se passe dans un laboratoire ou un centre de recherche et développement. Lorsqu’on parle d’intelligence artificielle, cela inclut l’utilisation de systèmes sans air, d’un environnement protégé, de simulations contrôlées, de mécanismes d’arrêt d’urgence et de protocoles de sécurité et de sûreté intégrés robustes. Ces outils contribuent à garantir la sécurité, l’intégrité et l’inviolabilité d’un système, et permettent de le mettre hors service si nécessaire.
Deuxièmement, le confinement normatif, soit une culture parmi les développeurs et les institutions qui privilégie l’éthique à la rapidité. Le pouvoir sans réflexion est dangereux.
Troisièmement, le confinement juridique, soit une réglementation transfrontalière, des lois garantissant la transparence, les droits civils, la responsabilité, la surveillance, l’intégrité, les valeurs et l’éthique, ainsi que la transparence et la durabilité.
Soyons clairs : la réglementation seule ne suffit pas. Un sommet ou un communiqué de presse de la Silicon Valley ne peuvent pas remplacer des règles contraignantes. Nous devons unir les gouvernements, l’industrie, le milieu universitaire et la société civile afin de créer, tous ensemble, une vision canadienne de l’intelligence artificielle fondée sur l’intégrité, les valeurs et l’éthique, la transparence et la durabilité, sans oublier l’équité, l’inclusion et la paix.
Nous devons agir de manière proactive avant d’être contraints de réagir, avant l’apparition du prochain algorithme discriminatoire, les prochaines pertes d’emplois ou la prochaine érosion de la confiance.
Pour revenir sur mon troisième point, à l’échelle mondiale, les gouvernements adoptent des approches divergentes.
L’Union européenne a adopté une loi globale sur l’intelligence artificielle, laquelle prévoit un système à plusieurs niveaux fondé sur les risques, assorti d’obligations claires pour les systèmes à haut risque et de règles de transparence contraignantes pour l’intelligence artificielle générative.
Les États-Unis adoptent une approche sectorielle axée sur les marchés de manière à favoriser la coopération. Cependant, les résultats sont inégaux.
Quant à la Chine, qui était autrefois un chef de file en matière de réglementation, elle fait maintenant bande à part dans la pratique. Sur papier, la Chine paraît proactive avec son cadre réglementaire pour les réseaux sociaux, son interdiction des cryptomonnaies et ses lignes directrices sur l’utilisation éthique de l’intelligence artificielle. Son projet de réglementation des grands modèles de langage va plus loin que la réglementation en vigueur en Occident. La réalité, c’est que l’utilisation civile de l’intelligence artificielle est étroitement contrôlée, tandis que son utilisation à des fins militaires et de surveillance est pratiquement illimitée. L’intelligence artificielle n’est pas seulement un outil, c’est un pouvoir d’État. C’est l’avenir que nous devons éviter.
Pour conclure, où en est le Canada?
Notre mesure la plus importante était le projet de loi C-27, la Loi de 2022 sur la mise en œuvre de la Charte du numérique, qui comprenait la Loi sur l’intelligence artificielle et les données. Celle‑ci proposait une surveillance fondée sur les risques pour les systèmes à incidence élevée, y compris les modèles génératifs. Ce projet de loi n’a pas été adopté avant la dissolution du Parlement. À l’heure actuelle, le Canada ne dispose d’aucune mesure de protection exécutoire sur le plan juridique, ce qui crée un vide critique en matière de gouvernance.
En guise de réponse, le gouvernement a déposé le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’intelligence artificielle générative avancés. Ce code vise à promouvoir l’équité, la transparence et la responsabilité, mais il n’est ni contraignant ni applicable. Il ne peut servir de substitut à un cadre réglementaire en bonne et due forme.
Plus récemment, le Canada a nommé son premier ministre de l’Intelligence artificielle et de l’Innovation numérique, comme l’a annoncé le premier ministre Carney le 13 mai 2025. La nomination de l’honorable Evan Solomon témoigne d’une reconnaissance croissante de l’importance de l’intelligence artificielle, mais le mandat du ministre n’est pas encore défini. Selon un reportage de la CBC du 17 mai, le Cabinet du premier ministre a répondu aux questions en renvoyant au programme du Parti libéral, intitulé Un Canada fort, dans lequel la question de l’intelligence artificielle est principalement liée à la croissance économique et à la réforme de la fonction publique. Ces objectifs sont louables, mais ils laissent de nombreuses questions sans réponse.
En comparaison, la loi européenne sur l’intelligence artificielle oblige les développeurs à divulguer les données d’entraînement protégées par le droit d’auteur, à empêcher la génération de contenus illégaux et à se conformer aux règles en matière de vie privée du règlement général sur la protection des données. L’approche adoptée par le Canada avec la loi sur l’intelligence artificielle et les données et le code de conduite volontaire reste vague et inefficace. L’écart est particulièrement flagrant dans un domaine critique : la vie privée.
La protection de la vie privée doit faire l’objet d’une attention urgente. L’intelligence artificielle transforme la manière dont les données sont collectées, déduites et utilisées. Au Québec, un jugement rendu en 2022 a estimé que les prévisions de décrochage scolaire générées par l’intelligence artificielle constituaient des informations personnelles, même lorsqu’elles étaient basées sur des données anonymisées. Le commissaire à la protection de la vie privée a demandé que les systèmes d’intelligence artificielle à haut risque fassent l’objet d’évaluations obligatoires de leur impact sur la vie privée. Le Sénat devrait appuyer cette demande.
Nous devons veiller à ce que l’intelligence artificielle soit au service de la population, et non l’inverse. Cela implique des normes exécutoires pour définir et réglementer l’intelligence artificielle générative, des mesures obligatoires de protection de la vie privée et des évaluations d’impact, des règles de divulgation publique pour les applications à haut risque et une surveillance indépendante dotée de pouvoirs d’exécution.
Cela implique également une consultation large et inclusive des technologues, des éthiciens, des dirigeants syndicaux, des communautés autochtones et des Canadiens.
Honorables sénateurs, la gouvernance de l’intelligence artificielle est un défi mondial, mais notre réponse doit être typiquement canadienne et fondée sur la dignité, l’égalité, la transparence et la primauté du droit.
L’intelligence artificielle n’est pas seulement un outil. Elle modifie notre façon de prendre des décisions, d’attribuer les responsabilités et de définir l’action humaine. Nous devons aborder cette période avec lucidité et détermination.
Si nous tardons à agir, nous risquons de prendre du retard, de laisser les systèmes numériques progresser plus rapidement que nos lois et d’exposer les Canadiens à la discrimination, à la mésinformation et aux atteintes à la vie privée.
Engageons-nous à faire de l’innovation canadienne une force non seulement pour le développement économique, mais aussi pour la justice et le bien-être.
En bref, alors que la science-fiction devient réalité, rappelons-nous la leçon de la série Terminator. Comme le dit John Connor : « Il n’y a de destin que ce que nous faisons. »
Merci, hiy kitatamîhin.
Je vous remercie. Je remercie également la sénatrice Moodie d’avoir lancé cette interpellation extrêmement importante. J’espère que d’autres prendront la parole à ce sujet.
Voici de quoi nous faire réfléchir. En matière de développement de l’intelligence artificielle, il y a deux approches bien distinctes. Il y a le développement mené par l’État, comme celui qui se fait en Chine et qui se fonde sur les principes socialistes — peu importe ce que cela signifie —, et le développement mené par l’industrie privée. D’après ce que je comprends, il est peu probable qu’un pays puisse mettre en place des dispositions législatives et réglementaires permettant d’encadrer une industrie dirigée par des entreprises privées ou par un État.
Savez-vous si des discussions ont eu lieu ou sont en cours au sujet de la création d’un organisme mondial qui pourrait assumer en partie ce pouvoir de réglementation, à l’instar de l’Agence internationale de l’énergie atomique? Le Canada devrait-il envisager de travailler en ce sens avec des États aux vues similaires?
Je pense que c’est le genre d’approche dont il faut parler. Je suis tout à fait d’accord avec vous sur ce point. Nous devons explorer cette piste. Lorsqu’on organise un sommet ou un autre forum déterminant, les bonnes personnes doivent être présentes.
J’ai une grande confiance dans les capacités du Canada à cet égard. Il faut rassembler les acteurs concernés, mais aussi leur donner une raison d’agir afin qu’ils s’investissent et comprennent ce qui se passera s’ils échouent. Ensuite, on pourra parler des modalités.
Je sais que le premier ministre préfère parler des modalités plutôt que des raisons. J’aime passer du temps à parler des raisons afin que les gens s’impliquent et sachent pour quoi ils se battent. Je crois néanmoins, comme vous l’avez dit, que c’est un bon point de départ.