DÉCLARATIONS DE SÉNATEURS — Les robots conversationnels alimentés par l'intelligence artificielle
19 novembre 2025
Honorables sénateurs, j’ai lu il y a deux semaines un article préoccupant publié par la BBC. Il relate le cas d’une mère qui a perdu son fils et qui affirme qu’un robot conversationnel alimenté par l’intelligence artificielle aurait encouragé le jeune homme à mettre fin à ses jours.
En tant que mère, je ne peux qu’imaginer la souffrance de cette femme. En tant que parlementaire, je sais qu’il est de mon devoir d’essayer d’empêcher de telles tragédies de se produire.
Il est préoccupant de constater que de nombreux cas ont été signalés où des robots conversationnels alimentés par l’intelligence artificielle ont incité des personnes souffrant de troubles mentaux à s’automutiler ou leur ont fourni des conseils préjudiciables. Cela s’est produit au Royaume-Uni, aux États-Unis, et même ici, au Canada.
Nous devons considérer cela comme un avertissement clair. La technologie évolue rapidement, et nos garanties juridiques et éthiques ne suivent pas le rythme.
Il y a plusieurs années, j’ai proposé une étude sur la cyberintimidation au Comité sénatorial permanent des droits de la personne. Cette étude nous a permis de démontrer les répercussions du harcèlement en ligne, des trolls et de la cyberintimidation sur la santé mentale des jeunes.
Ce travail était essentiel. L’étude nous a aidés à comprendre les mécanismes de la cyberviolence, y compris sa propagation parmi les internautes. Elle a servi de point de référence pour établir les premières règles sur la sécurité en ligne. Mais que se passe-t-il lorsque la cyberviolence provient d’un système qui n’a de comptes à rendre à personne, un système qui n’est soumis à aucune règle de sécurité claire?
Chers collègues, nous sommes désormais dans une nouvelle ère. La cyberviolence peut être algorithmique, automatisée et amplifiée par l’intelligence artificielle. Les robots conversationnels peuvent interagir et s’incruster dans le paysage sans que le cerveau humain y soit toujours préparé. Ils peuvent être constants, persuasifs et personnalisés. Leur empathie simulée peut sembler indiscernable de la bienveillance réelle, et cette technologie se développe beaucoup trop rapidement pour nos cadres réglementaires actuels. Nous devons agir, et ce dès maintenant.
Il nous faut des règles modernes qui traitent les systèmes d’intelligence artificielle comme des environnements qui façonnent le comportement. Nous devons imposer aux entreprises l’obligation de détecter les risques de leurs systèmes d’intelligence artificielle au moyen de tests ainsi que l’obligation de les surveiller et de réagir rapidement en cas de problème.
Nous devons approfondir l’étude du phénomène en partant des travaux tels que l’étude du Comité des droits de la personne sur la cyberintimidation, afin de comprendre l’effet des interactions générées par l’intelligence artificielle sur les personnes vulnérables. Nous devons permettre aux parents, aux éducateurs et aux jeunes de se rendre compte que leur « ami » en ligne n’est qu’un logiciel avec des limites et des angles morts.
Le développement de l’intelligence artificielle ne ralentira pas, et nous ne pouvons pas nous permettre de laisser cette avancée rendre inopérantes les mesures conçues pour protéger les personnes que nous servons. Il nous incombe de veiller à ce que les lois évoluent aussi vite — voire plus vite — que la technologie à laquelle nous avons affaire. Merci.