Aller au contenu
SECD - Comité permanent

Sécurité nationale, défense et anciens combattants


LE COMITÉ SÉNATORIAL PERMANENT DE LA SÉCURITÉ NATIONALE, DE LA DÉFENSE ET DES ANCIENS COMBATTANTS

TÉMOIGNAGES


OTTAWA, le lundi 1er mai 2023

Le Comité sénatorial permanent de la sécurité nationale, de la défense et des anciens combattants se réunit aujourd’hui, à 16 heures (HE), avec vidéoconférence, afin d’examiner, pour en faire rapport, les questions concernant la sécurité nationale et la défense en général.

Le sénateur Tony Dean (président) occupe le fauteuil.

[Traduction]

Le président : Honorables sénateurs, je vous souhaite la bienvenue à cette réunion du Comité sénatorial permanent de la sécurité nationale, de la défense et des anciens combattants.

Je m’appelle Tony Dean, je représente la province de l’Ontario et je suis le président du comité. J’invite mes collègues à se présenter, en commençant par notre vice-président.

[Français]

Le sénateur Dagenais : Jean-Guy Dagenais, du Québec.

[Traduction]

Le sénateur Oh : Victor Oh, de l’Ontario.

[Français]

Le sénateur Boisvenu : Sénateur Boisvenu, du Québec.

[Traduction]

Le sénateur Richards : Dave Richards, du Nouveau-Brunswick.

La sénatrice Anderson : Margaret Dawn Anderson, des Territoires du Nord-Ouest.

La sénatrice M. Deacon : Marty Deacon, de l’Ontario.

La sénatrice Dasko : Donna Dasko, sénatrice de l’Ontario.

Le sénateur Boehm : Peter Boehm, de l’Ontario.

Le sénateur Kutcher : Stan Kutcher, de la Nouvelle-Écosse.

Le sénateur Cardozo : Andrew Cardozo, de l’Ontario.

Le président : Merci, chers collègues.

Pour ceux qui nous regardent en direct partout au Canada, nous nous concentrons aujourd’hui sur la désinformation et la sécurité nationale. Comme nous accueillons aujourd’hui deux solides groupes de témoins, nous allons commencer sans plus attendre.

Dans notre premier groupe de témoins, nous avons le plaisir d’accueillir Farhaan Ladhani, président directeur général, Digital Public Square, et Nicole Jackson, professeure agrégée à l’École d’études internationales de l’Université Simon Fraser, par vidéoconférence.

Merci à vous deux de vous joindre à nous aujourd’hui. Nous allons commencer par vous inviter tous les deux à faire votre déclaration préliminaire, après quoi les membres du comité vous poseront des questions. Monsieur Ladhani, vous pouvez commencer quand vous serez prêt.

Farhaan Ladhani, président-directeur général, Digital Public Square, à titre personnel : Honorables sénateurs, je vous remercie de m’avoir accordé le privilège de m’adresser à vous aujourd’hui.

Je suis le président-directeur général de Digital Public Square. Depuis sa création, notre équipe a mis l’accent sur la communication de renseignements fiables aux collectivités. Au cours des dernières années, nous avons étudié la désinformation dans plusieurs pays.

J’aimerais traiter de trois points pour, je l’espère, établir le fondement de notre discussion. Le premier est le contexte qui pourrait être pertinent pour s’attaquer à l’offre de désinformation, compte tenu de l’écosystème en évolution de sa production, de sa diffusion et de sa consommation; le deuxième est de mettre en évidence les données récentes sur la demande de contenu de désinformation; et troisièmement, envisager une approche stratégique plus souple pour véritablement lutter contre la désinformation, compte tenu des défis plus importants et émergents auxquels nous sommes confrontés.

Dans le cadre de notre travail, nous voyons trois systèmes différents pour régir la fourniture d’information en ligne. Il y a le modèle fermé et très centralisé qui utilise la surveillance continue pour surveiller l’information et censurer les contenus qui sont incompatibles avec les discours dominants de l’État. Cela rend aussi les règles suffisamment opaques pour favoriser l’autocensure. Il existe un système ouvert, mais de plus en plus réglementé, qui cherche à accroître la responsabilisation des plateformes. Des nouvelles récentes de Bruxelles, dont bon nombre d’entre vous ont sûrement entendu parler, montrent clairement que 19 entreprises de technologie seront assujetties à la Digital Services Act, un exemple de la façon dont les gouvernements cherchent à imposer des normes de conformité et de réglementation visant à promouvoir des espaces en ligne plus sûrs. Cela obligera ces entreprises à prendre des mesures précises contre la désinformation, à défaut de quoi elles risquent de subir des pénalités financières ou autres. Il reste aussi un modèle décentralisé avec une gouvernance centrale limitée du contenu. Chacun de ces trois systèmes intègre des approches de filtrage, de stockage de données, de routage et de participation d’entreprises étrangères à la prestation de services.

L’autre composante clé de l’écosystème de l’information, à savoir les plateformes, et leur approche de la modération du contenu est devenue la norme pour la façon dont les gens perçoivent le monde en ligne dans chacune de ces plateformes. Certaines définissent le contenu qu’ils supprimeront, y compris les renseignements qui pourraient inciter à la violence ou à des sévices physiques; d’autres examinent le contexte, la personne visée par le comportement, la question de savoir si un rapport a effectivement été déposé, la gravité de l’infraction et si le sujet est d’intérêt public légitime. Chacune a son propre intérêt pour la mobilisation externe et la consultation des collectivités. Ces mêmes entreprises sont aux prises avec le climat économique actuel, l’automatisation et la concurrence accrues en matière d’innovation en intelligence artificielle et les réductions ou, franchement, le démantèlement des conseils de confiance et de sécurité qui en découlent. Quand on compare cela à l’ampleur du défi, sachant que le contenu a une demi-vie de 24 à 80 minutes sur les réseaux sociaux traditionnels, la lutte contre la désinformation ne peut être considérée comme une solution à elle seule.

Qu’avons-nous appris? Chez Digital Public Square, nous nous intéressons à la demande de fausses informations et de désinformation et à ce qui constitue une information fiable. Les gens et leurs communautés constituent la partie la plus importante de cet écosystème. En examinant nos travaux récents, y compris les fausses informations et la désinformation sur la COVID-19, les vaccins et le conflit en Ukraine, nous avons constaté que de 20 à 25 % des Canadiens pourraient être plus vulnérables aux fausses informations et à la désinformation. Il existe certaines caractéristiques communes chez ces personnes vulnérables, notamment une faible confiance dans les institutions et les médias traditionnels, ainsi qu’un niveau élevé de peur et de griefs. Nous avons constaté que nos outils peuvent avoir un effet positif sur la réduction des méfaits de la désinformation. Dans le cas de la COVID-19, nous avons constaté qu’en augmentant la mobilisation à l’aide de renseignements fiables, nous pouvons indirectement accroître la probabilité que les personnes améliorent leurs comportements de santé préventifs et que leur intention de se faire vacciner augmente. Dans le cadre de nos travaux sur l’Ukraine, nous avons constaté un effet positif sur l’accroissement des connaissances dans des domaines qui font l’objet de désinformation, ce qui réduit leur incidence néfaste. Dans tout ce travail, si on veut réduire la demande, on voit l’importance d’investir dans des solutions qui répondent aux communautés où elles sont. La réduction de la demande et de l’efficacité de la désinformation fait augmenter les coûts, ce qui complique les efforts de déstabilisation pour les acteurs pernicieux.

Donc, où tout cela nous mène-t-il? Le problème de la désinformation, même s’il n’est pas nouveau, est aggravé par sa forme changeante et par notre incapacité à mesurer avec précision son effet. Nous avons assisté à l’augmentation de l’échelle et de la vitesse de distribution au cours des deux dernières décennies. Je dirais que ce n’est encore rien par rapport à l’échelle et à la vitesse que nous sommes sur le point d’observer au chapitre de la production. Le coût de la production soutenue par l’IA, des hypertrucages au contenu synthétique, approche rapidement de zéro. L’intelligence artificielle générative n’a pas rédigé cette déclaration, mais si elle l’avait fait, un consommateur occasionnel dans un avenir très rapproché ne pourrait pas faire la différence.

Parallèlement, les tendances sociétales exacerbent notre vulnérabilité collective à la désinformation qui s’appuie sur nos craintes et nos griefs. La confiance est en déclin. Les lacunes en matière de littératie numérique et médiatique, tant au Canada qu’au niveau individuel, rendent nos collectivités plus vulnérables au contenu qui renforce les divisions sociales, économiques et culturelles. À mesure que ces divisions se renforcent, y compris par des acteurs externes, l’aliénation et la polarisation peuvent s’accentuer, ce qui a des répercussions sur notre sécurité nationale.

J’aimerais vous laisser avec une approche à considérer. Nous devons adapter le rythme du changement avec plus d’agilité. Nous avons besoin d’un modèle itératif pour mettre à l’essai des solutions stratégiques face au défi actuel et émergent de la désinformation. C’est un problème d’écosystème. Pour nous y attaquer, nous devons réunir les principaux acteurs — le gouvernement, les chercheurs, la société civile et les entreprises — dans une seule discussion dans le cadre de laquelle des prescriptions politiques peuvent être conçues, les effets néfastes potentiels et l’atténuation peuvent être testés et les résultats de la mise en œuvre peuvent être réintroduits dans un cycle d’apprentissage. Cela n’aboutira pas à un consensus, mais pourrait offrir une approche plus viable pour réellement s’attaquer aux méfaits tout en tirant parti des possibilités qui ont une incidence sur les personnes, les collectivités et nos institutions.

Merci. Je serai heureux de répondre à vos questions.

Le président : Merci, monsieur Ladhani. Je pense qu’il est juste de dire que vous avez très bien préparé la table pour la discussion de cet après-midi.

Nous allons maintenant entendre Nicole Jackson. Madame Jackson, je vous souhaite de nouveau la bienvenue au comité. Vous pouvez commencer dès que vous serez prête.

Nicole Jackson, professeure agrégée, École d’études internationales, Université Simon Fraser, à titre personnel : Merci, monsieur le président. Bonjour. C’est un honneur et un privilège de participer à ces discussions.

Je suis une universitaire. Je travaille dans le domaine des études internationales et de la politique étrangère russe. Mes observations d’aujourd’hui sont fondées sur mon étude récente des réponses du gouvernement à la désinformation étrangère dans le contexte de la guerre en Ukraine. J’exhorte le gouvernement canadien à poursuivre ses efforts en vue d’adopter une approche équilibrée et responsable pour lutter contre la désinformation étrangère, tant au pays qu’à l’étranger. Il est particulièrement urgent qu’il se prépare à affronter les défis que la désinformation peut poser dans les guerres futures.

Premièrement, je vais décrire deux grands défis auxquels le gouvernement est confronté. Deuxièmement, je vais présenter deux conclusions importantes de mon étude. Troisièmement, je présenterai trois répercussions de l’étude sur les interventions dans les guerres futures.

Premièrement, la désinformation est effectivement un défi transnational complexe qui évolue rapidement et qui pose d’importants dilemmes aux décideurs canadiens et aux Canadiens qui comptent sur des renseignements exacts. À l’avenir, il est alarmant d’imaginer les conséquences de l’automatisation de la persuasion au moyen de l’intelligence artificielle, ou IA, qui pourrait être exercée par des acteurs publics et privés disposant de ressources suffisantes, en temps de paix comme en temps de guerre.

Deuxièmement, le gouvernement a besoin de l’aide de la société pour régler ce problème. Le défi consiste à préciser le rôle du gouvernement, ainsi que ceux des acteurs civils et privés, alors qu’ils abordent ensemble les causes, les demandes, les processus et les conséquences de la désinformation. Il y a beaucoup d’inconnues, et il est impératif de réévaluer continuellement les avantages, les limites et les conséquences imprévues possibles d’une vaste gamme d’options qui existent et qui peuvent être utilisées pour réagir. Les répercussions sur la liberté d’expression et la vie privée doivent être prises en compte, et il faut déterminer qui est responsable et pourquoi.

Les résultats de mon étude montrent que, premièrement, pendant la guerre actuelle en Ukraine, il y a eu un changement radical dans la façon dont l’information est produite, manipulée et distribuée. Ce changement a amplifié et étendu la portée de la désinformation, souvent en temps réel. La guerre doit être considérée dans le contexte de courses plus vastes visant à contrôler le contenu et la circulation de l’information. À l’avenir, les discours et les revendications auront probablement encore plus de pouvoir pour influencer le soutien interne et externe aux guerres, pour renforcer ou abaisser le moral et pour tromper l’adversaire sur le champ de bataille.

Deuxièmement, l’étude décrit les tentatives de la Russie de contrôler le contenu et la circulation de l’information sur trois grands fronts, soit sur le terrain en Ukraine, de façon plus générale dans l’arène politique plus vaste et à l’intérieur de la Russie.

Troisièmement, l’étude montre que, bien que le gouvernement canadien estime que la désinformation russe constitue une série de menaces urgentes à de multiples niveaux, il a réagi en éparpillant différents types de mesures. Ces mesures visaient, premièrement, à renforcer la résilience civile et militaire de l’Ukraine et, deuxièmement, à renforcer la résilience sociétale, institutionnelle et technique du Canada et à imposer de nouveaux coûts et de nouvelles sanctions à certains acteurs russes qui répandent la désinformation. Ces réponses ont rarement porté sur des pays à l’extérieur de l’Occident ou sur la désinformation interne du Kremlin en Russie, mais ces deux domaines sont cruciaux pour le soutien de la Russie à sa guerre en Ukraine.

Ces ententes soulèvent trois implications pour les interventions face à la désinformation dans les guerres futures.

Premièrement, pour une efficacité maximale, la désinformation et les fausses informations étrangères doivent être traitées de façon globale dans les nouvelles mises à jour de la défense et de la sécurité nationales. Les dilemmes que pose la désinformation étrangère deviendront de plus en plus urgents en raison des dissensions géopolitiques croissantes avec la Russie et d’autres États. J’exhorte le gouvernement à réfléchir aux types de désinformation qui sont les plus préoccupants et aux raisons pour lesquelles ils le sont, et à définir une approche équilibrée en fonction des menaces. Le discours du gouvernement sur les menaces est extrêmement large. Il n’est ni possible ni souhaitable de répondre à tout, afin que le gouvernement puisse mieux préciser son rôle et les mesures qu’il prendra en tant qu’acteur responsable. Cependant, en même temps, le gouvernement et les Canadiens doivent demeurer souples et capables de fonctionner dans l’incertitude face aux défis en constante évolution.

Deuxièmement, le Canada aurait intérêt à bâtir et à agir et à demeurer actif au sein de coalitions internationales et aux côtés de celles-ci, ainsi qu’aux niveaux provincial et local. La désinformation à l’étranger pose un ensemble de défis transnationaux qui exigent des réponses globales au sein de ces coalitions et alliances internationales plus vastes et, à l’échelle nationale, avec les gouvernements provinciaux, la société civile et les acteurs privés dans tout le Canada. À l’échelle internationale, le Canada devrait mettre sur pied des coalitions qui regroupent des États et la société civile à l’extérieur de l’Occident, y compris — pour être un peu idéaliste — la société civile de la Russie et la diaspora russe à l’étranger.

Troisièmement, une discussion nationale interdisciplinaire est nécessaire, à mon avis, pour s’attaquer aux problèmes posés par la désinformation, parallèlement à ceux d’autres formes d’ingérence étrangère, comme par exemple un carrefour de discussion interdisciplinaire à l’échelle de la société, la recherche et les politiques, y compris au sujet de l’efficacité et ses conséquences imprévues de différentes options. La désinformation est propre au contexte, et elle aidera à continuer de distinguer les différents acteurs, les différents types de désinformation et les dynamiques de pouvoir sous-jacentes. Des cadres transparents sont nécessaires, par exemple, lorsqu’il s’agit de déterminer qui et quoi interdire ou sanctionner, et qui peut revendiquer la vérité et déclarer quand une affirmation est simplement une opinion controversée et non pas dangereuse. Ces discussions seront très difficiles, mais elles sont nécessaires pour établir la confiance entre la société et le gouvernement et créer une culture de résilience en matière de sécurité nationale.

En conclusion, il est impératif que le gouvernement, de concert avec les acteurs nationaux et internationaux, élabore une approche équilibrée, responsable et transparente pour lutter contre la désinformation étrangère. Deuxièmement, il pourrait profiter de l’examen des prochaines étapes pour se préparer aux dangers qu’elles recèleront probablement dans les guerres futures.

Merci beaucoup.

Le président : Merci, madame Jackson.

Nous passons maintenant aux questions des membres du comité. Avant de passer aux questions, cependant, j’aimerais demander aux participants dans la salle de ne pas se pencher trop près de leur microphone ou de retirer leur oreillette s’ils doivent le faire. Cela permettra d’éviter toute rétroaction du son qui pourrait avoir une incidence négative sur le personnel du comité dans la salle.

M. Ladhani et Mme Jackson sont avec nous pour une heure. Afin que chaque député ait le temps de participer, je limiterai chaque question, y compris la réponse, à quatre minutes. Veuillez poser des questions succinctes et identifier la personne à laquelle vous adressez la question.

Comme d’habitude, la première question va à notre vice-président, le sénateur Dagenais.

[Français]

Le sénateur Dagenais : Ma première question s’adresse à vous, madame Jackson. J’ai vu dans vos recherches que vous vous êtes intéressée aux groupes paramilitaires qui existent en Russie. J’aimerais que vous partagiez avec nous vos connaissances sur le groupe Wagner.

On comprend qu’il s’agit de mercenaires dont le recrutement a explosé l’an dernier et qui ont été déployés en Ukraine pour faire la guerre. Qui sont-ils en réalité? Doit-on les considérer comme des criminels à la solde de Vladimir Poutine? Qui les contrôle? Sont-ils payés par la Russie? Surtout, cette organisation a-t-elle des ramifications au Canada ou aux États-Unis?

Mme Jackson : Merci beaucoup, sénateur Dagenais.

[Traduction]

Je crois comprendre que vous aimeriez que je parle du groupe Wagner, dont on a beaucoup parlé dans les médias en lien avec sa participation, par exemple, à la guerre actuelle en Ukraine. Je suppose que vous vous intéressez à l’ampleur de son influence et à l’influence qu’a peut-être le président Poutine sur ce groupe de mercenaires qui ont travaillé au Moyen-Orient et ailleurs, comme en Afrique, ainsi qu’en Ukraine.

Je ne suis pas une experte dans ce domaine; ce n’est pas ce sur quoi je me concentre. Ce que je peux dire, c’est que, d’après tout ce que j’ai lu — et ce sont des renseignements secondaires —, il a évidemment joué un rôle important, et il y a de plus en plus, comme on l’a largement rapporté, de frictions entre le gouvernement et les dirigeants du groupe et, d’après ce que je comprends, le moral des troupes qui travaillent au sein de ce groupe, des mercenaires et, de façon plus générale, des troupes russes, est à la baisse. Je ne peux vraiment pas en dire plus sur une relation spéciale entre Poutine et le contrôle qu’il exerce sur ce groupe, si ce n’est qu’il semble que Poutine ait une emprise assez forte sur ces groupes en ce moment.

[Français]

Le sénateur Dagenais : Revenons sur la guerre en Ukraine. Le Canada a pris des engagements importants, tant sur le plan militaire que sur le plan économique, pour soutenir l’Ukraine et condamner le régime de Vladimir Poutine. Quand on met toutes les interventions du Canada dans la balance, après un an de guerre, pouvons-nous dire aujourd’hui que le Canada gagnera quelque chose? Devrait-il plutôt rétablir tant bien que mal des ponts avec la Russie, compte tenu de l’enjeu important qu’est devenu le passage de l’Arctique, entre autres?

[Traduction]

Mme Jackson : C’est une excellente question. Je pense que vous demandez si le Canada a fait ce qu’il fallait et s’il va réinvestir dans cette guerre.

Je pense que le gouvernement canadien et, évidemment, la majorité des Canadiens ont décidé d’appuyer l’Ukraine, et ils suivent le désir de l’Ukraine de se battre et de poursuivre le combat. L’Ukraine n’a pas encore précisé à quel moment elle sera prête à entamer des négociations. Le Canada a décidé d’appuyer l’Ukraine de toutes ces façons.

Ma propre crainte depuis le début, et elle a été rendue publique parce que j’ai écrit à ce sujet dans des articles de journaux depuis le début, était simplement un avertissement. Je sais que beaucoup de gens le savaient, mais nous savions que ce ne serait pas une guerre facile. Pour ce qui est de la perception de l’État russe, il est existentiel qu’il continue de s’accrocher à cette région particulière de l’Ukraine — à tout le moins, la Crimée et certains territoires entourant la Crimée — et il serait extraordinairement difficile de l’en déloger.

Je n’ai pas de boule de cristal pour prédire l’avenir. Les choses peuvent changer rapidement en temps de guerre. Cependant, si j’avais à deviner, je ne pense pas que cette guerre se terminera bientôt. Elle pourrait être très longue.

Le sénateur Oh : Je remercie les témoins de leur présence.

Quels pays sont les plus importantes sources de désinformation au Canada? En quoi cette désinformation affecte-t-elle la sécurité nationale et le gouvernement? J’aimerais peut-être entendre M. Ladhani en premier.

M. Ladhani : Je vous remercie de la question.

Il est difficile de dénombrer le volume total de désinformation provenant d’un pays par rapport à un autre pour deux raisons. Il peut y avoir de la désinformation directe de la part d’un État donné, puis il y a la désinformation par procuration, et il y a aussi la désinformation qui est relayée par de simples citoyens. Si nous examinons l’effet total sur la désinformation active d’un acteur étatique dans notre pays, il nous faudrait trouver un moyen de chiffrer chacun de ces trois aspects pour pouvoir produire une image composite, et c’est assez difficile.

Je pense qu’il est juste de dire que nous avons vu et observé — et votre prochain groupe de témoins va en parler — l’ampleur de la désinformation et des fausses informations de la part de la Russie et de ses supporteurs qui a prévalu au Canada, tant dans la période qui a précédé l’invasion qu’après le début des hostilités dans ce pays. C’est assez important. Ils ne sont pas seuls. Il y a de nombreux autres acteurs, étatiques et non étatiques, qui font entrer ce contenu dans le pays.

En ce qui concerne le deuxième commentaire, qui porte sur l’influence de la désinformation sur notre sécurité nationale, il y a des conséquences vraiment importantes à deux égards. Le premier est l’effet déstabilisateur de ce contenu sur la cohésion sociale. Encore une fois, il est assez difficile de mesurer cet effet parce que l’effet réel de la désinformation sur le choix d’une personne est assez difficile à estimer. Cela dit, grâce au travail que nous faisons, nous savons ce qui se passe lorsque vous fournissez de l’information de qualité aux gens. Cela améliore les choix qu’ils pourraient faire au sujet des politiques qu’ils appuient, de leurs considérations du risque et de la façon dont ils pourraient s’aligner sur le contenu ou l’information du gouvernement. Nous voyons donc un effet très positif. Si nous regardons l’envers de la médaille, nous pouvons examiner les répercussions négatives de cette désinformation dans la société. Bien que nous ne puissions quantifier son effet précis, nous pouvons voir l’inverse dans nos études, qui démontrent clairement l’effet positif de fournir des renseignements de grande qualité.

Deuxièmement, pour revenir à la cohésion sociale, lorsqu’il y a des craintes et des griefs dans la société, la polarisation qui existe peut être accentuée et exacerbée par la désinformation. Cela amène les gens à se demander en qui ils ont confiance, comment ils travaillent ensemble, quels problèmes ils choisissent de résoudre et qui ils croient lorsqu’ils échangent de l’information. Tout cela, collectivement, a des répercussions importantes sur notre démocratie et, par la suite, sur notre sécurité nationale.

Le sénateur Oh : Beaucoup de gens vont sur YouTube pour obtenir beaucoup d’information. Estimez-vous qu’une grande partie de l’information sur YouTube n’est pas fiable? Ma femme aime faire suivre des vidéos YouTube d’une personne à une autre. Je lui ai demandé d’arrêter de le faire, parce que ces renseignements ne sont pas exacts. Il faut vérifier beaucoup de renseignements sur YouTube et sur Internet.

M. Ladhani : Au début de la pandémie, je parlais souvent avec ma mère et ma famille. Ils répétaient de l’information entendue au sujet des solutions ou des problèmes associés à la COVID-19. C’était au début. Ils disaient que l’on contractait la maladie par la 5G, que Bill Gates était le grand responsable. Vous avez entendu toutes sortes d’histoires au sujet des répercussions de ces rumeurs. Nous ne parlons pas ici d’espions en manteau noir qui essaient de déstabiliser la société. Ce sont simplement des gens qui propagent des renseignements qu’ils croient exacts. Au moment où nous sommes en train d’examiner la désinformation visant à produire un effet précis, nous devons être conscients de la distribution de contenus qui ne sont peut-être pas de la désinformation, mais qui peuvent aussi avoir des effets déstabilisants, et nous devons relever la barre de la littératie et de l’information que les gens considèrent comme étant de grande qualité.

Le sénateur Kutcher : Merci aux témoins.

Je vais me concentrer sur la désinformation plutôt que sur la mésinformation et sa propagation. Ce qui saute aux yeux — et je vais le dire tout de suite —, c’est que des acteurs politiques internes se servent de la désinformation pour atteindre des objectifs politiques. Il suffit de regarder ce qui se passe aux États-Unis. Parfois, elle est facilitée et encouragée par des acteurs étatiques externes malicieux qui veulent déstabiliser, comme les élections volées et les messages antivaccins. Ces mesures visent à réduire la confiance à l’égard du gouvernement en place, quel qu’il soit, et à diminuer la confiance à l’égard des institutions et des processus démocratiques — c’est le but — et, par conséquent, des acteurs internes. Que pensez-vous de la solution lorsque c’est le rôle du gouvernement qui est en fait la cible de la désinformation dans un environnement politique polarisé qui devient encore plus polarisé et plus politisé?

M. Ladhani : Je vous remercie de la question.

Prenons un peu de recul pour en arriver à la réponse. Réfléchissons à ce qui doit se passer dans une très courte période lorsque vous avez un contenu, et appelons cela de la désinformation. J’ai dit dans ma déclaration préliminaire que la demi-vie d’un élément du contenu d’un réseau social se situe entre 24 et 80 minutes. De nombreuses études démontrent le temps total qu’il faut pour qu’un élément de contenu soit à peu près à moitié aussi efficace qu’il le sera. Il n’y a que 24 minutes pour régler ce problème — 24 minutes. Il faut régler un problème de risque, un problème de conformité, un problème financier, un problème juridique, un problème de communication, un problème de politique, un problème opérationnel et un problème d’engagement communautaire. Même si on réussit à faire tout cela en 24 minutes, la moitié de l’impact du message est déjà atteint. Lorsque nous voyons des acteurs nationaux faire proliférer la désinformation dans la société, cette ligne de démarcation entre les acteurs étrangers et les acteurs nationaux est en fin de compte éliminée. C’est le même écosystème. L’un peut simplement renforcer l’autre. Par conséquent, il est difficile d’arrêter cette activité, c’est-à-dire d’empêcher le contenu de se propager et de se retrouver dans les boîtes de réception et dans les fils d’actualité de nombreuses personnes. C’est pourquoi je ne pense pas que l’on puisse résoudre ce problème du côté de l’offre.

En ce qui concerne la gouvernance, le gouvernement et son rôle, Mme Jackson l’a expliqué, et je suis d’accord. Nous avons besoin d’un meilleur moyen d’amener le gouvernement à engager un dialogue avec les plateformes et la société civile dans un processus actif d’examen de la désinformation au fur et à mesure qu’elle émerge. Pour cela, il faut la démystifier à partir de la société civile, les plateformes doivent agir pour réduire sa vitesse de propagation, et le gouvernement doit avoir la capacité de communiquer efficacement sur le bien-fondé de l’information exacte qu’il souhaite diffuser. Cette discussion ne lui appartient pas, mais il peut toutefois y participer. En participant à la discussion avec d’autres acteurs, je pense qu’il est possible d’améliorer la confiance.

Le sénateur Kutcher : J’aimerais également entendre Mme Jackson à ce sujet.

Mme Jackson : Vous nous demandez, si j’ai bien compris, comment nous pouvons réagir à ce genre de désinformation venant de nombreux acteurs différents.

Le sénateur Kutcher : Quel doit être le rôle du gouvernement? Si le gouvernement est lui-même la cible de désinformation, comment peut-il agir sans aggraver le problème?

Mme Jackson : Encore une fois, je ne suis pas une experte en la matière. Je peux vous dire ce que le gouvernement essaie de faire en Ukraine, par exemple. La Russie n’est pas le seul acteur qui diffuse toutes sortes d’informations différentes : discours, mensonges purs et simples, distorsions de la vérité, et ainsi de suite. Selon moi, il y a différents types de désinformation provenant de différents acteurs. Quelqu’un au sein du gouvernement, avec des acteurs privés et des acteurs civils, devra décider à qui il va répondre. En temps de guerre, cependant, ce genre de discours, qui sèment la confusion chez les gens, qui ne savent plus ce qui constitue une information exacte, peut en fait causer directement du tort aux gens. Les Ukrainiens doivent savoir où les Russes vont attaquer la prochaine fois. Toutes ces informations trompeuses et fausses, ces fausses images et ainsi de suite constituent une menace directe pour notre allié que nous essayons d’aider, qui est attaqué et qui subit les atrocités de la Russie. De mon côté, j’ai essayé de voir ce que nous pouvons faire pour commencer à réfléchir aux prochains types de conflits où il y aura encore plus d’outils pour induire les gens en erreur et semer la confusion. Je conviens qu’ils peuvent provenir de toutes sortes d’acteurs différents, y compris des acteurs privés qui peuvent monétiser cette désinformation et compliquer davantage ce qui est déjà une question très complexe.

Nous voyons toute une gamme d’outils — du moins, c’est mon cas — que je ne connais pas très bien, mais que nous pouvons utiliser pour nous attaquer à ce problème. Comme vous venez de l’entendre, l’un d’eux est l’éducation. Si vous voulez que le public canadien soit prêt à comprendre les absurdités et les discours dangereux qui viennent de la Russie et d’autres acteurs et acteurs affiliés, et qui sont répétés par tout le monde, vous devez avoir une bonne éducation. Il faut comprendre l’histoire, la culture, et ainsi de suite, et la participation antérieure de la Russie dans ces pays. À mon avis, cela va de la littératie numérique, de la littératie médiatique et de toutes sortes d’autres outils dans la boîte à outils, jusqu’à la résilience institutionnelle et à différents outils de résilience technique, en passant par des mesures plus secrètes dans les domaines de la cybernétique offensive.

Je suis parfaitement d’accord pour dire que cela dépend de l’endroit où nous parlons le long de la chaîne d’abattage — pour paraphraser les militaires — où nous voulons agir et quand nous voulons le faire. Ce serait ma brève...

Le président : Je suis désolé de vous interrompre. Nous devons passer à autre chose, mais je suis certain que nous reviendrons à ce sujet.

[Français]

Le sénateur Boisvenu : Monsieur Ladhani, êtes-vous à l’aise de parler du dossier de la désinformation chinoise?

[Traduction]

M. Ladhani : Comme nous n’avons pas beaucoup travaillé relativement à la désinformation chinoise au Canada, je ne peux pas en parler en connaissance de cause. Je pense qu’il vaut la peine d’étudier la question, comme d’autres qui font de la désinformation au Canada. Nous avons examiné ce défi à l’échelle mondiale dans d’autres parties du monde et nous sommes certes en mesure d’observer certaines tendances quant à la façon dont la Chine, ainsi que d’autres acteurs, tire parti de ces outils en ligne, à la fois pour les besoins...

[Français]

Le sénateur Boisvenu : J’ai une question précise à poser. Je comprends que vous n’êtes pas à l’aise de répondre à la question.

Madame Jackson, êtes-vous à l’aise de discuter de ce dossier?

[Traduction]

Mme Jackson : Non, je ne le suis pas. Je crois qu’il faut examiner la situation de plus près et que de nombreux acteurs gouvernementaux doivent révéler de façon transparente s’ils ont des renseignements à ce sujet. De plus, il faut mener plus d’études sur ce pays et sur d’autres acteurs.

[Français]

Le sénateur Boisvenu : Je voulais poser cette question, mais je sens que les deux témoins ne sont pas à l’aise d’y répondre.

Je remercie les témoins d’être ici. Ils ne semblent pas à l’aise avec le dossier de la désinformation chinoise au Canada.

[Traduction]

Le sénateur Cardozo : Ma question s’adresse à la fois à Mme Jackson et à M. Ladhani. Si nous pouvons prendre un peu de recul, pouvez-vous me dire comment nous définissons la différence entre la mésinformation et la désinformation et quels sont leurs objectifs? Vous pourriez peut-être répondre en ce qui concerne le lien particulier avec la polarisation dans la société. J’aimerais peut-être commencer par vous, madame Jackson.

Mme Jackson : Tout d’abord, pour ce qui est de la discussion publique, je pense que ces termes sont souvent utilisés de façon plutôt floue et mal définie, ce qui ne fait qu’accroître la confusion et la méfiance de tout le monde à l’égard des divers acteurs qui en parlent, alors je pense que c’est une excellente question.

Il existe différentes définitions, mais les universitaires ont tendance à considérer la désinformation comme étant motivée par une intention — une sorte de stratégie et une intention claire — de causer un préjudice quelconque, alors que certaines personnes cherchent aussi à accroître l’intention de causer de la violence. Cette définition pourrait fonctionner si nous parlons, encore une fois, de la guerre en Ukraine. De toute évidence, il ne s’agit pas seulement de semer la confusion ou de persuader les gens de différentes façons, mais de leur faire carrément du tort. Ils essaient de gagner la guerre, bien sûr. Ils essaient d’obtenir du soutien et du moral. Mais sur le champ de bataille, ils essaient de gagner, ce qui implique un préjudice direct. Il y a là un réel préjudice direct.

Cela arrive si la Russie, par exemple, envoie un gazouillis ou autre communication dans laquelle elle dit qu’elle n’a pas fait quelque chose ou qu’elle ne va pas attaquer cet endroit, puis qu’elle attaque quelque part et tue beaucoup de gens, puis qu’elle crée ou ne crée pas de fausses images de ce qui se passe. Il y a manifestement une intention claire de gagner et de causer du tort, qui est ensuite recyclée et récupérée extraordinairement rapidement par toutes sortes de plateformes et d’autres façons différentes de diffuser les informations. Il ne s’agit pas seulement du numérique. Cela peut se faire de différentes façons, par l’entremise d’ambassades, de groupes de réflexion et de journaux traditionnels, entre autres. Les gens voient un point de vue intéressant, et ils le font suivre, ce qui les amène à être complètement confus ou à penser qu’il se passe quelque chose qui ne se passe pas, et ainsi de suite. C’est ainsi que je vois les différentes définitions.

Le sénateur Cardozo : Monsieur Ladhani?

M. Ladhani : La caractérisation de l’intention comme étant un élément principal de la désinformation constitue une bonne définition. Je pense que le défi, bien sûr, c’est l’attribution. Il peut parfois être très difficile d’attribuer un élément de contenu à un acteur particulier qui pourrait avoir l’intention de provoquer un résultat particulier. Comment déterminez-vous si l’information provient d’un intermédiaire ou d’un mandataire et si cet intermédiaire avait l’intention de causer un préjudice? Donc, même si je pense que l’intention est une caractéristique essentielle de la définition de la désinformation, l’un des défis que nous avons est de pouvoir définir clairement ce problème afin que nous puissions concevoir une approche stratégique très précise pour simplement nous y attaquer. C’est pourquoi je pense que c’est un problème complexe et épineux. Cependant, je pense que cette combinaison d’intention et, au bout du compte, de pouvoir valider cette intention avec une certaine attribution fait partie de la conception de la définition de la désinformation.

Le sénateur Cardozo : La mésinformation est-elle simplement une forme plus bénigne de désinformation, comme le fait de se tromper de chiffres par erreur?

M. Ladhani : Je ne dirais pas que c’est nécessairement bénin. En fait, cela peut être très dangereux. Cette notion couvre également un éventail beaucoup plus large de contenu qui pourrait être inexact et trompeur sur le plan des faits. Il peut y avoir ou non une intention, mais la fausse information n’est pas intentionnellement conçue pour provoquer une action particulière. Elle contient des inexactitudes qui peuvent, en fait, produire ce résultat, mais qui n’ont peut-être pas été intentionnellement destinées à le produire. Elle couvre donc une zone grise beaucoup plus vaste, je pense, du contenu.

Le sénateur Boehm : Je remercie nos témoins de leur présence.

Monsieur Ladhani et madame Jackson, vous avez parlé d’adopter une approche souple en matière de politiques ou d’avoir une discussion unique sur les politiques qui réunirait le gouvernement, la société civile, les entreprises du secteur privé et peut-être d’autres intervenants également. La question est de savoir comment le faire, et efficacement. Sur la scène internationale, il y a eu un certain succès au G7, si je me souviens bien, avec l’établissement d’un mécanisme de politique sur les menaces à la démocratie, par exemple, qui est lié à la situation lors de laquelle le G7 a travaillé comme incubateur pour amener des choses au G20. Ce n’est pas quelque chose que vous pourriez facilement présenter au G20, compte tenu de sa composition et de la présence d’au moins deux des grands acteurs malfaisants. Il n’y aurait pas nécessairement de grandes sociétés de technologie qui voudraient venir à la table, à moins que les conditions soient très favorables. Nous l’avons constaté en les invitant à témoigner devant des comités, notamment aux États-Unis et ici.

Je me demande si vous avez des recommandations sur la façon dont cela pourrait se faire. On parle toujours de réunir le pouvoir de façon positive ou négative, mais quel est le catalyseur? Monsieur Ladhani, vous pouvez peut-être commencer.

M. Ladhani : Merci, monsieur.

Je pense en fait que le défi de la désinformation étrangère pourrait être un très bon point de départ. Il touche un nerf sensible, crée une urgence et pourrait susciter le dialogue. Ce dialogue en est un exemple. Ce pourrait être un cas utile où on pourrait commencer à concevoir une approche stratégique qui rassemble ces acteurs.

Il y en a un bon exemple à Taïwan. Dans le document dont mes collègues parleront dans la prochaine table ronde, l’une des recommandations est d’examiner ce modèle. Dans ce modèle, la société civile surveille et expose la manipulation de l’information et les menaces d’ingérence. Les médias sociaux et les représentants du gouvernement sont avertis lorsque des menaces se présentent, et ils peuvent agir en conséquence. Les plateformes de médias sociaux qui exercent leurs activités à Taïwan pourraient choisir de désamorcer certains des discours identifiés et, au besoin, le gouvernement pourrait produire des réponses pour les aborder directement dans ce qu’il appelle une démythification dans l’heure suivant l’alerte. C’est à ce moment‑là que cela fonctionne le mieux. À mon avis, nous devons commencer à prendre de petites mesures pour concevoir une approche qui pourrait être suffisamment souple pour faire face au défi qui se profile à l’horizon. Taïwan est un bon exemple de modèle qui réunit les trois parties. Ils sont en mesure d’identifier le contenu à l’aide de la société civile, de chercheurs et de personnes qui observent activement; ils ont des relations avec les plateformes de médias sociaux dont les politiques leur permettent de réduire la vitesse de propagation de ce contenu; et le gouvernement peut être mieux placé pour revenir avec la vérité le plus rapidement possible.

Le rôle précis du gouvernement n’est pas de décider ce qui pourrait être ou ne pas être un élément de désinformation à un moment donné, mais la société civile peut alerter le groupe de personnes pour qu’elles entament le processus. Le gouvernement peut décider d’agir ou non. Si nous faisons cela pendant un certain temps, nous cernerons les secteurs qui aident à déterminer où les collectivités se sentent vulnérables à la désinformation, en adoptant une approche axée sur la collectivité d’abord pour déterminer les limites de ce contenu, les endroits où les entreprises de médias sociaux sont prêtes à agir et ceux où elles ne le sont pas, et voir où le gouvernement choisit d’envoyer un message de manière proactive ou non. À partir de là, on pourrait être en mesure d’élaborer un cadre stratégique plus robuste qui permettrait de mettre en place des règles qui nous aideraient à constater que les méfaits de l’inaction se multiplient et se manifestent. J’espère que c’est une approche plus intégrée.

Le sénateur Boehm : Merci. Est-ce que Mme Jackson a le temps de répondre ou est-ce que le temps est écoulé? Nous pourrons peut-être y revenir plus tard.

Le président : Il reste 20 secondes. Allez-y.

Mme Jackson : Je suis entièrement d’accord sur presque tout ce qui vient d’être dit. Nous ne pouvons pas laisser le gouvernement contrôler le discours ou laisser les sociétés civiles penser cela, sinon tous les problèmes de confiance vont en fait s’aggraver et s’envenimer. Cela revient à ce que je disais au sujet de la nécessité d’avoir une discussion. On en parle partout au Canada. C’est un problème interdisciplinaire. Il pourrait y avoir une façon de réunir différents groupes et représentants pour faire avancer ce qui, d’une certaine façon, est un problème classique de gouvernance mondiale avec différents acteurs.

La sénatrice M. Deacon : Merci à vous deux d’être ici.

Ma première question s’adresse à M. Ladhani. J’aimerais revenir sur un point que vous avez soulevé plus tôt. J’espère que nous avons vraiment dépassé l’étape de nous demander si nous sommes confrontés à un problème. En tant que sénateurs, on nous demande constamment ce que nous faisons à ce sujet; nous sommes donc au moins passés à l’étape de la sensibilisation.

Récemment, The Economist a publié un article sur certains jeux en ligne. Je pense que nous devons garder l’esprit ouvert, sortir des sentiers battus et essayer de faire tout ce que nous pouvons. Cela dit, il y a des jeux en ligne qui peuvent servir d’outils de sensibilisation à la mésinformation et à la désinformation. Un étudiant au doctorat de l’Université Concordia, à Montréal, a créé un jeu qui s’appelle Lizard and Lies, grâce à des fonds de Patrimoine canadien. De toute évidence, on s’intéresse à ce que tout cela signifie et aux possibilités qui en découlent. De façon plus générale, de tels outils qui sortent des sentiers battus pourraient-ils devenir efficaces, plus utiles ou faire partie de la réponse pour amener les Canadiens à réfléchir de façon critique à ce qu’ils lisent en ligne? Dans l’affirmative, comment pouvons-nous amener les gens à les utiliser?

M. Ladhani : Je vous remercie de la question.

Mon organisation élabore régulièrement des jeux et en tire parti pour favoriser une meilleure pensée critique à l’égard des fausses informations et de la désinformation, tant au Canada qu’à l’étranger. Je crois beaucoup à cette approche. Il y a certaines caractéristiques utiles que les jeux créent pour nous permettre de reconsidérer nos opinions et nos points de vue antérieurs au sujet d’informations qui peuvent être inexactes ou fausses. Nous avons vu des preuves importantes, dans le cadre d’expérimentations et d’essais répétés de ce travail, de l’effet de l’augmentation des connaissances de la part des personnes qui jouent à nos jeux, ce qui signifie qu’elles sont plus en mesure d’identifier des renseignements exacts, et nous constatons une plus grande harmonisation entre les gens de différents points de vue et de divers horizons, qu’ils soient politiques ou démographiques, et nous constatons qu’ils s’entendent davantage sur un ensemble de faits de base.

Au moyen de ce qu’on appelle des essais contrôlés randomisés — l’idée de mettre à l’essai un type particulier d’approche par rapport à un contrôle actif; pensez au contenu régulier d’une page Web ou d’un blogue par rapport au contenu d’un jeu — nous constatons des améliorations importantes dans l’intention des gens d’améliorer leurs comportements préventifs, pour ce qui est des résultats positifs pour la santé, y compris la vaccination; et de meilleures évaluations des risques pour déterminer s’ils seraient prêts à accepter des fermetures progressives de sites d’événements à grande échelle dans le contexte de la pandémie.

La sénatrice M. Deacon : J’aimerais vous arrêter ici parce que je n’ai plus beaucoup de temps et que je veux revenir sur ce que vous avez dit et examiner les données démographiques. Ma question s’adresse à vous deux. Merci de cette réponse.

Encore une fois, nous essayons tous de comprendre, mais un autre aspect dont j’ai connaissance et qui est vraiment surprenant — et qui ne devrait peut-être pas l’être — concerne ce que j’ai lu dans Current Directions in Psychological Science, qui a révélé que les adultes de plus de 65 ans sont plus de sept fois plus susceptibles que les jeunes adultes de recevoir, d’accepter et de croire de fausses nouvelles. Ce qui me préoccupe particulièrement à ce sujet, c’est que comme la génération plus âgée est plus susceptible de voter, nous devons nous assurer qu’elle dispose de renseignements exacts. Dans ce contexte et compte tenu de certaines des solutions que vous envisagez, comment pouvons-nous travailler avec les gens de ce groupe démographique plus âgé au moyen d’avertissements et d’outils éducatifs qu’ils ont peut-être délaissés dans leurs vieux jours?

M. Ladhani : Je répondrai très brièvement.

En fait, nous constatons un taux d’adoption assez élevé de nos produits chez les gens de tous les groupes démographiques, y compris ceux de 65 ans et plus, hommes et femmes, partout au pays. L’idée que les jeux sont limités aux jeunes est en fait inexacte. Nous constatons un taux de participation important. La conception doit tenir compte de ce qui sera intéressant pour les gens de cette catégorie d’âge et de l’endroit d’où ils viennent. C’est pourquoi il est si important de rencontrer les communautés là où elles se trouvent, parce que si on peut concevoir des jeux pour ces communautés, on peut avoir un effet assez important sur le taux de participation.

Le président : Voulez-vous ajouter autre chose très rapidement, madame Jackson? Merci. Nous reviendrons à vous.

Le sénateur Richards : Merci à vous deux d’être ici.

Dans The Master and Margarita, le brillant roman antisoviétique de Mikhail Bulgakov, les gens vivent dans un monde de rumeurs et de terreur à cause de la désinformation parrainée par l’État. Maintenant, avec l’avènement de l’intelligence artificielle, c’est un problème qui se répand à une vitesse folle. Tôt ou tard, si la désinformation n’est pas enrayée, comme le dit le roman de Bulgakov, nous entrerons dans un monde de peur et de frénésie.

Une autre préoccupation est la suivante : qui décide, parmi nous et parmi nos champions de la sécurité, ce qui est de la désinformation et ce qui n’en est pas? Comment pouvons-nous être certains qu’elle ne nous nuira pas ou ne nous avantagera pas?

M. Ladhani : Je ne sais pas si nous vivons dans un monde où quelqu’un, une seule personne ou une institution, peut être l’arbitre de la vérité pour les collectivités. Les collectivités vont décider elles-mêmes ce qu’elles croient être exact ou inexact en fonction d’un certain nombre d’intrants. Je crois que « parce que le gouvernement le dit » ne suffit plus pour que ces collectivités aient confiance en la véracité du contenu. Souvent, elles ne le feront pas parce que c’est le gouvernement.

Voilà pourquoi il est si crucial que nous trouvions des approches pour travailler avec chaque élément de la société afin de créer les conditions qui permettront aux collectivités d’estimer que le contenu est le leur et de se sentir capables de remettre en question les idées que l’État pourrait présenter, avec d’autres, y compris des personnes en qui elles ont confiance, afin de tirer des conclusions quant à ce qu’elles croient ce qui est vrai ou non sur une question donnée. Une prépondérance de l’État qui se contente de diffuser du contenu, comme si cela allait changer la dynamique, à mon avis, ne fait qu’empirer les choses, et nous en voyons les contrecoups.

Le sénateur Richards : Je suis d’accord avec vous.

Madame Jackson, qu’en pensez-vous?

Mme Jackson : D’une certaine façon, je félicite le gouvernement d’avoir commencé au cours de la dernière décennie — j’ai écrit à ce sujet — à sensibiliser la population aux défis multiples qui découlent de toute une gamme d’opérations de désinformation et de mésinformation. Encore une fois, dans la guerre en Ukraine, la déclassification des renseignements au bon moment a été utile. Il faut continuer à faire ce genre de choses quand c’est possible pour garder la confiance de la société.

Personnellement, je pense qu’il faut être très prudent lorsqu’on commence à parler d’interdictions. [Difficultés techniques] si vous voulez. Interdire ou autoriser la RTV, la télévision russe. Le gouvernement a imposé des sanctions ciblées à un nombre important de personnes et d’entités médiatiques de la Russie. Le problème, ce n’est pas nécessairement de faire cela, et peut-être qu’il faudrait en faire plus, mais il faut savoir comment cela se fait et expliquer clairement à la population canadienne pourquoi ces acteurs particuliers et pourquoi à ce moment-là, parce qu’autrement, je suis d’accord, cela continuera d’accroître la méfiance à l’endroit des gens qui sont déjà sceptiques à l’égard des gouvernements pour toutes sortes de raisons. Par conséquent, nous devons être transparents et vraiment prudents lorsque nous songeons à ce que pourraient être certains des contrecoups possibles. L’une des grandes préoccupations au sujet de la désinformation et de la mésinformation concerne ce niveau croissant de méfiance envers les élites, l’information scientifique et les gouvernements, etc. Nous ne voulons pas ajouter au fait que le gouvernement fait une chose à laquelle les membres de la société, certains d’entre eux, ne réagiront pas bien et ne comprendront pas.

Le sénateur Richards : Merci.

Le président : Merci beaucoup à vous deux.

La sénatrice Anderson : Merci aux témoins.

Ma question s’adresse à vous, monsieur Ladhani. Vous avez parlé de la nécessité d’adopter une approche éclairée pour lutter contre la désinformation et la mésinformation et pour fournir des renseignements de grande qualité.

Au Canada, on part du principe qu’il y a équité et égalité partout au pays. Ce n’est pas le cas. L’Arctique suscite de plus en plus d’intérêt à l’échelle mondiale. Dans les Territoires du Nord-Ouest et au Nunavut, on compte sur des méthodes plus traditionnelles de diffusion des nouvelles, notamment la radio et les journaux traditionnels du Nord, ainsi que sur un éventail de langues. Dans les Territoires du Nord-Ouest, on compte 11 langues officielles, dont neuf sont des langues autochtones. Le coût de l’accès à Internet est également prohibitif et, dans certaines régions, cet accès est absolument peu fiable. Comment répond-on aux besoins de l’Arctique et des trois territoires quand il est question de désinformation et de mésinformation au Canada?

M. Ladhani : J’aimerais bien pouvoir expliquer clairement comment on procède. Le fait que je ne puisse pas en dit long sur le travail qui se fait, et ce n’est pas par manque d’intention. Je soupçonne qu’ils ne sont probablement pas aussi bien servis qu’ils devraient l’être. C’est vrai pour de nombreuses collectivités du pays. C’est vrai en ce qui concerne les langues. Je soupçonne que c’est vrai pour ce qui est de l’accès aux outils en ligne disponibles. Je pense que c’est certainement vrai pour ce qui est des aspects culturels, c’est-à-dire la façon dont le contenu doit être conçu et créé pour avoir un impact approprié parmi ces collectivités. C’est un défi. Je pense que c’est un défi pour nous tous, mais il n’en demeure pas moins que c’est un défi que nous sommes en mesure de relever avec les outils dont nous disposons, si nous avons à la fois l’intention et le désir de le faire.

La sénatrice Anderson : Je vous remercie de ces renseignements.

Vous avez également parlé de la nécessité de mobiliser les gouvernements. Dans les Territoires du Nord-Ouest, 50 % de la population est autochtone. De plus, il y a des ententes sur les revendications territoriales, des ententes d’autonomie gouvernementale et des traités modernes. En outre, au Canada, il y a 25 signataires de traités modernes qui visent 40 % du territoire canadien. À votre connaissance, y a-t-il un dialogue avec ces gouvernements ou organisations autochtones?

M. Ladhani : Je peux vous donner rapidement un bref aperçu de notre travail sur la désinformation et la mésinformation au sujet des vaccins. Nous avons lancé un programme. Plus de 100 000 Canadiens y ont participé. Ce que nous avons appris, c’est que l’approche et le contenu devaient être conçus de façon beaucoup plus précise pour mobiliser les communautés autochtones. C’est ce que nous avons appris des séances d’écoute et du dialogue avec les communautés autochtones pour nous fournir une rétroaction sur l’approche. Cela a finalement été réalisé dans le cadre d’une approche ciblée visant à mobiliser les communautés autochtones pour lutter contre la désinformation et la mésinformation à l’aide d’une plateforme très précise et sur mesure conçue conjointement avec elles. Nous avons constaté que l’efficacité de cette méthode était beaucoup plus grande que celle qui peut autrement être offerte aux autres Canadiens. À mon avis, c’est exactement le genre d’approche sur mesure qu’il faut adopter à l’égard de ces questions. Nous avons vu là que cela peut être fait, que cela peut être bien fait et avoir un impact positif, mais il faut que ce soit intentionnel et conçu dès le départ.

La sénatrice Anderson : Merci.

La sénatrice Dasko : Ma question s’adresse à vous deux. Tout d’abord, j’aimerais que vous songiez à des exemples de désinformation que vous avez vus et qui ont eu des répercussions particulièrement importantes. Monsieur Ladhani, dans votre travail dans le domaine de la santé, et madame Jackson, dans votre travail sur la Russie, pouvez-vous donner quelques exemples de ce que vous croyez être les incidents de désinformation les plus percutants, et quelles ont été les répercussions de cette désinformation?

Deuxièmement, j’ai une question générale à vous poser à tous les deux. Dans quelle mesure les fournisseurs de désinformation connaissent-ils bien leurs publics cibles? Est-ce qu’ils se contentent de la diffuser ou, en fait, sont-ils vraiment sophistiqués? Lorsque je travaillais dans le domaine des sondages et que je m’occupais de campagnes de marketing social, nous devions savoir quel était le public cible, quels messages leur étaient destinés et comment les diffuser. Je m’interroge au sujet de ces gens qui font de la désinformation. Ils ont des procurations, bien sûr. À quel point sont-ils sophistiqués? Est-ce qu’ils se contentent de le dire aux Canadiens en espérant qu’ils y croiront, ou est-ce qu’ils sont sophistiqués et qu’ils visent la tranche de 25 %? C’est un problème différent si la désinformation concerne seulement cette tranche de 25 %, par opposition à la désinformation qui touche d’autres segments de la société et qui a donc un impact différent. Voilà quelques questions que je vais vous poser à tous les deux.

Mme Jackson : Pour ce qui est de la question de savoir à quel point la Russie est sophistiquée dans sa désinformation, je crois comprendre, encore une fois, que la Russie fournit toutes sortes de renseignements.

Si nous prenons la guerre en Ukraine, la désinformation vise en grande partie à essayer d’obtenir l’appui de certains segments et de certaines régions du monde. La Russie essaie d’obtenir leur appui. Je n’ai pas un accès privilégié concernant les intentions, mais il semble assez évident qu’ils essaient de convaincre les Canadiens qu’il ne vaut pas la peine de continuer à envoyer de l’équipement, par exemple, à l’Ukraine et que le Canada devrait cesser de le faire. Dans certains cas, il s’agit simplement de la persuasion normale de l’État en ce sens, qui essaie de dire : « Voici pourquoi nous avons ces objectifs et intérêts, et nous voulons que vous compreniez. »

Ensuite, il semble y avoir toute une gamme d’acteurs affiliés présumément au gouvernement, dont certains sont inspirés par le gouvernement, d’autres sont directement liés à différents types de groupes de sécurité et de groupes militaires au sein du gouvernement, qui ont essayé de façon plus sophistiquée de viser des groupes en particulier. Ce n’est pas ma spécialité, alors il s’agirait d’un travail secondaire, et je pense que vous entendrez les prochains témoins en parler, des gens qui auront constaté que cela s’est produit de façon systématique.

À mon avis, ce qui m’inquiète vraiment, c’est que la situation va devenir plus complexe au fil du temps et que cela pourrait se faire de façon beaucoup plus subtile que pour la guerre en Ukraine, et qu’elle va devenir plus complexe et plus menaçante à l’avenir. C’est d’après moi ce qui va se passer dans le cas des États et d’autres acteurs privés qui ont beaucoup plus d’argent et qui sont plus sophistiqués grâce aux nouvelles avancées technologiques, et cetera.

Vous entendrez plus tard parler en détail de différents exemples auxquels la Russie a participé. Pour ce qui est de la guerre, il s’agit en grande partie de dénigrer, par exemple, la position de Chrystia Freeland en sa qualité de Canadienne d’origine ukrainienne ou de s’en prendre aux troupes canadiennes et à ce qu’elles font en Ukraine aux côtés des alliés de l’OTAN, etc.

D’autres exemples précis qui ont causé le plus de tort, par exemple, sont essentiellement lorsqu’ils disent : « Nous n’avons pas commis cette atrocité. Nous n’allons pas y venir; nous allons y envoyer nos troupes à tel endroit. Nous n’allons même pas envahir. » Ensuite, ils envahissent, et nous ne sommes pas prêts pour l’invasion. Cela semble être un exemple assez frappant.

Pour ce qui est de l’efficacité, je répète qu’il est très difficile de la mesurer pour ce qui est du soutien canadien à la guerre. Beaucoup de gens diront qu’ils continuent d’appuyer la guerre de bien des façons et qu’ils appuient l’Ukraine. L’Ukraine a tenu bon jusqu’à maintenant. D’autres diront que nous n’avons pas accordé autant d’appui qu’ils le voudraient. Disons que ce genre de désinformation peut ne pas avoir été aussi efficace que Poutine l’aurait souhaité. Je vais m’arrêter ici.

M. Ladhani : Pour ce qui est de la sophistication, je crains que ce ne soit pas nécessaire. La désinformation est bon marché. Ses coûts de fabrication sont faibles. C’est bon marché à tester. C’est peu coûteux à distribuer. Elle est très perturbatrice quand elle fonctionne, et vous pouvez maintenant la produire à une échelle de masse à l’aide de quelques clics. Comme pour toutes les campagnes de marketing et de publicité auxquelles les spécialistes du marketing ont eu recours pour vendre des choses comme du papier hygiénique ou des voitures, il suffit de faire des essais et d’apprendre à très faible coût et à très faible risque. Par conséquent, vous pouvez redoubler d’efforts et cliquer deux fois sur ceux qui fonctionnent et les renforcer avec plus de ressources. Le coût est donc assez faible, et le risque de ne pas avoir besoin d’être sophistiqué a diminué rapidement, surtout avec les nouveaux outils.

En ce qui concerne le contenu proprement dit sur la santé, je dirais que l’un des domaines où nous avons constaté des répercussions importantes concernait l’information destinée aux parents au sujet de l’innocuité des vaccins. Il y aura des craintes et des préoccupations réelles quant à savoir si les vaccins vont réellement nuire aux femmes enceintes. Ce sont des aspects où les craintes et les doléances peuvent être très facilement exploitées. Par conséquent, c’est dans ces domaines que nous constatons le plus grand effet de la désinformation et de la mésinformation. C’est cette relation avec les craintes et les doléances qui existent dans la société, ces fissures et ces clivages qui sont vraiment mûrs pour la manipulation. Par conséquent, ce sont les secteurs qui devraient être au cœur de notre travail.

Le président : Au nom de mes collègues, je tiens à vous remercier, monsieur Ladhani et madame Jackson, de vos excellentes réponses à des questions très difficiles et très pertinentes posées par mes collègues. Nous vous sommes très reconnaissants de votre contribution et de votre expertise. Nous vous souhaitons beaucoup de succès et nous espérons que vous poursuivrez vos efforts, car ils sont extrêmement importants pour nous ici présents et, en fait, pour les gens de partout au pays. Merci beaucoup.

Nous passons maintenant à notre deuxième groupe de témoins. Nous avons le plaisir d’accueillir Marcus Kolga, directeur, DisinfoWatch et agrégé supérieur de recherche à l’Institut Macdonald-Laurier; Brian McQuinn, professeur adjoint et codirecteur, Centre de l’intelligence artificielle, des données et des conflits, à l’Université de Regina; et Cody Buntain, professeur adjoint, École des sciences de l’information, Université du Maryland.

Merci de vous joindre à nous aujourd’hui. Nous allons commencer par vous inviter à faire votre déclaration préliminaire, après quoi les membres du comité vous poseront des questions. Je vous rappelle que vous disposez chacun de cinq minutes pour faire une déclaration préliminaire. Je crois que nous commençons par M. Kolga. La parole est à vous.

Marcus Kolga, directeur, DisinfoWatch, et agrégé supérieur, Institut Macdonald-Laurier, à titre personnel : Merci, monsieur le président et mesdames et messieurs les membres du comité, de m’avoir invité à témoigner devant vous aujourd’hui.

Je surveille et j’expose l’information et les opérations d’influence de la Russie depuis 15 ans. Au cours de cette période, nous avons vu les tactiques et les récits des Russes évoluer. Cependant, même depuis la fin de la Seconde Guerre mondiale, leurs objectifs sont restés les mêmes, c’est-à-dire distraire, déformer et diviser les sociétés démocratiques.

Le principal objectif du Kremlin aujourd’hui est d’éroder le soutien de l’Occident à l’égard de l’Ukraine, y compris ici même au Canada. Bien que les Canadiens aient fait preuve d’une grande résilience face aux récentes opérations d’information de la Russie, des fissures apparaissent. Les propagandistes du Kremlin exploitent les divisions politiques existantes en adaptant des discours anti-ukrainiens qui sont liés à l’extrême gauche et à l’extrême droite. Notamment, il y a des récits qui cherchent à nous distraire en rejetant le blâme de la guerre sur l’OTAN. Le Kremlin vise à miner l’appui de la population canadienne envers l’envoi d’armes et d’aide à l’Ukraine en présentant des récits qui manipulent les problèmes de corruption passés de l’Ukraine et qui jettent de faux doutes sur la fiabilité du gouvernement. Le gouvernement Zelensky est régulièrement accusé de néonazisme par le Kremlin, qui utilise ce discours pour justifier la guerre et attaquer la crédibilité du gouvernement ukrainien. Ce récit néonazi fait également partie d’une campagne plus vaste et continue déployée par Moscou depuis la guerre froide pour discréditer les critiques du régime.

Soit dit en passant, les communautés ukrainiennes, d’Europe centrale et d’Europe orientale au Canada sont depuis longtemps la cible de cette campagne de désinformation motivée par la haine, ce qui a récemment mené à une augmentation des incidents de violence à l’endroit de ces communautés. Au cours des 15 derniers mois, des voitures et des maisons appartenant à des Canadiens d’origine ukrainienne ont été vandalisées et des membres de la communauté ont été menacés et intimidés. L’an dernier, une lettre a été envoyée au consul honoraire de l’Estonie à Toronto dans laquelle on menaçait de mener une attaque à l’anthrax dans la communauté si le gouvernement estonien continuait de soutenir l’Ukraine.

Lorsque les récits anti-ukrainiens et autres du Kremlin sont adoptés par l’extrême gauche et l’extrême droite, ils sont épurés de leurs origines du Kremlin et, une fois amplifiés, ils sont exposés à des auditoires qui peuvent dépasser des centaines de milliers, voire des millions de téléspectateurs. À l’extrême droite, l’ancien animateur de FOX News, Tucker Carlson, a souvent défendu des positions qui correspondaient à celles du Kremlin pour ses trois millions de téléspectateurs de nuit. M. Carlson était tellement efficace que son récent congédiement a été déploré par des propagandistes ultranationalistes du Kremlin comme Vladimir Solovyev, qui a offert à Tucker Carlson un emploi dans les médias d’État russes. M. Carlson a également accueilli des militants de l’extrême gauche du Kremlin dans le cadre de son émission, comme Aaron Maté, un contributeur canadien à une plateforme médiatique de l’extrême gauche appelée The Grayzone. On voit régulièrement des contributeurs de The Grayzone sur les médias d’États russe et chinois. De plus, ils appuient le régime Assad en Syrie ainsi que le dirigeant autoritaire du Venezuela, Nicolás Maduro.

Ce qui semble émerger, c’est un alignement de l’extrême droite et de l’extrême gauche fondé sur leurs points de vue communs anti-ukrainiens, anti-OTAN, anti-establishment et antidémocratiques. Il semblerait que le Kremlin coordonne une partie de ces activités. La journaliste britannique Catherine Belton a récemment mis au jour une opération du Kremlin visant à créer une coalition allemande anti-ukrainienne entre l’AfD, d’extrême droite, et Die Linke, d’extrême gauche. Des membres des deux partis ont récemment participé à un « rassemblement contre la guerre » à Berlin, où les manifestants ont exigé la fin du soutien de l’Union européenne et de l’Allemagne à l’Ukraine. Selon des documents du Kremlin qui ont fait l’objet d’une fuite, cette alliance de l’extrême gauche et de l’extrême droite allemande était un objectif explicite proposé par le Kremlin l’été dernier. Le Kremlin a également ordonné l’élaboration d’une campagne visant à freiner le soutien à l’Ukraine au moyen de discours antiguerre. Les documents détaillent également des rencontres entre les responsables russes et des membres de ces deux partis extrémistes allemands.

On sait que les médias d’État et les diplomates russes au Canada coordonnent également les efforts visant à intégrer des récits pro-Kremlin dans notre environnement d’information. Au cours des cinq dernières années, des militants canadiens d’extrême droite et d’extrême gauche ont souvent participé à des émissions de la chaîne médiatique d’État russe RT. Dans un récent rapport, le journaliste Justin Ling a souligné les efforts déployés par les diplomates russes pour promouvoir la désinformation auprès des journalistes et des chroniqueurs canadiens au sujet des élus canadiens. Le mois dernier, un militant canadien d’extrême gauche s’est vanté sur les médias sociaux d’avoir rencontré des représentants du ministère des Affaires étrangères de la Russie à Moscou.

Notre étude récente, The Enemy of My Enemy, examine ces récits russes et la façon dont ils sont amplifiés par l’extrême gauche et l’extrême droite. Je vais laisser mes collègues vous présenter ces constatations.

Je serai heureux de répondre à vos questions. Merci.

Le président : Merci, monsieur Kolga. Nous allons maintenant entendre M. McQuinn et M. Buntain, ensemble ou dans l’ordre que vous voudrez. Vous avez la parole.

Brian McQuinn, professeur adjoint, codirecteur, Centre de l’intelligence artificielle, des données et des conflits, Université de Regina, à titre personnel : Merci beaucoup, monsieur le président et honorables sénateurs.

Pour commencer, nous tenons à souligner qu’une partie de la recherche dont nous allons vous faire part a été financée par le gouvernement canadien. Lorsque nous parlons de ce qui peut être fait — et il s’agit également d’un partenariat avec les intervenants précédents —, je pense que certaines des choses qui se font sont très importantes pour nous. Ce dont je vais parler aujourd’hui, c’est du défi que nous voyons, dont une grande partie a été abordée jusqu’à maintenant au cours de la présente séance, des raisons pour lesquelles nous nous y attaquons comme nous le faisons et de certaines des conclusions du rapport dont nous venons de parler.

Pour commencer — et l’un des sénateurs précédents y a fait allusion —, il est toujours important de comprendre que la polarisation n’est pas un résultat naturel de la société. C’est en fait l’objectif de nombreuses opérations d’influence étrangère, alors c’est toujours quelque chose qu’il faut souligner et dont il faut se souvenir. Ce n’est pas seulement une sorte de sous‑produit naturel. Il y a de toute évidence des problèmes qui ont été abordés. Je pense que nous pouvons nous demander pourquoi cela profite plus à certaines personnes qu’à d’autres, mais il est important que cela soit toujours à l’avant-plan de la façon dont l’écosystème des médias sociaux peut réellement permettre cela et parfois l’encourager.

Il importe également de souligner que nous ne pouvons pas nous attendre à ce que les entreprises de médias sociaux nous aident beaucoup à cet égard. J’utilise Facebook comme exemple. Nous sommes financés en partie par Facebook, alors il est important de le dire, mais 87 % de la modération de Facebook est réservée aux États-Unis. Cela représente 10 % du trafic réel, ce qui signifie que 90 % du monde, ce qui comprend le Canada, reçoit une fraction. L’idée selon laquelle les entreprises de médias sociaux feront beaucoup pour le Canada est une attente qui, à mon avis, est dénuée de fondement. Je pense que c’est là que nous, comme société et comme dirigeants, devons vraiment prendre le problème en main.

Je pense que tout le monde s’entend pour dire, d’après ce que j’ai entendu jusqu’à maintenant, qu’il s’agit d’une menace sans précédent. Nous croyons donc que nous avons besoin de collaborations sans précédent. Dans une certaine mesure, les intervenants d’aujourd’hui, y compris des intervenants précédents, font partie de l’équipe plus vaste que nous avons réunie, en partie financée par le gouvernement canadien. Il est toujours dangereux de demander aux chercheurs ce dont on a besoin de plus, parce que, invariablement, il s’agit de plus de recherche, mais en même temps, je pense que cela touche de multiples organisations ayant de multiples approches.

Pour nous, l’élément clé qui est souvent oublié, c’est que nous devons suivre les réseaux qui font de la désinformation. Bon nombre des processus et des recherches portent souvent sur les résultats de ces études, c’est-à-dire quels sont les récits et les mots-clics. Nous croyons en fait qu’il faut suivre les réseaux en temps réel parce que cela vous permettra en théorie de réagir presque instantanément à ce qui en émerge au lieu d’être toujours réactif et, à bien des égards, de réagir en retard parce que les délais sont tellement rapides.

Pour pouvoir le faire comme jamais auparavant, nous avons besoin d’experts en conflits, comme Marcus, qui sont en mesure d’apporter la nuance nécessaire, parce que cela ne peut pas être fait par l’intelligence artificielle. Même si nous avons des spécialistes en intelligence artificielle — et cela fait partie de l’expertise que notre centre apporte —, ce n’est pas suffisant. Vous avez besoin d’experts en conflit. Nous avons également besoin de gens comme Cody, qui sont des spécialistes de l’informatique de crise et qui comprennent les réseaux et les plateformes de médias sociaux. Nous avons également besoin d’experts en intelligence artificielle, mais d’un type particulier, l’intervention humaine. Ces processus évoluent si rapidement que, malgré ce qu’on dit souvent, les systèmes d’intelligence artificielle ne pourront jamais réagir assez rapidement sans l’expertise humaine au cœur de ces systèmes. La dernière partie concerne les experts en vision par ordinateur. Étant donné beaucoup de choses sont maintenant visuelles, nous avons aussi besoin de cette expertise qui rassemble tout.

Le but du présent rapport était d’avoir une idée de l’impact relatif de ces réseaux et de ces efforts. On entend souvent dire que les opérations d’influence étrangère ont un impact minime sur le Canada. Nous voulions vérifier cela de façon empirique. Nous avons constaté le contraire. Nous voulions examiner la taille et la portée de l’écosystème concerné. L’écosystème du Canada, qui englobe à la fois l’extrême gauche et l’extrême droite, comme Marcus l’a mentionné, compte parmi les communautés en ligne les plus actives au Canada. Nous avons pu mesurer et juger cela en examinant deux réseaux comparables. L’un d’eux était les 338 députés fédéraux. Nous avons examiné l’ensemble de l’écosystème et nous nous sommes demandé à quel point il est actif. Nous avons également examiné les 20 comptes les plus influents sur Twitter dans l’ensemble du Canada afin de pouvoir mesurer cela. Par rapport aux députés fédéraux, les réseaux pro-Kremlin ont produit 27 fois plus de contenu, suivent 3 fois plus de comptes et sont suivis par autant d’abonnés que tous les députés fédéraux. Quand on regarde les comptes les plus influents, les réseaux russes produisent quatre fois et demie plus de contenu, suivent deux fois plus de gens et ne sont suivis que par le quart de ces abonnés. Toutefois, ce sont les 20 comptes les plus influents au pays. Ils ne devraient même pas être de la même envergure, mais ils le sont.

On nous demande souvent comment nous mesurons l’influence. C’est quelque chose que nous pourrons examiner de plus près au cours des prochaines années. Le fait est que les Russes semblent croire que cela a beaucoup d’influence parce qu’ils continuent d’investir dans ce domaine. C’est un point important qui a été oublié. De toute évidence, ils pensent que cela a un impact; autrement, ils ne le feraient pas à l’échelle qu’ils le font.

L’un des derniers points concerne le rôle des Canadiens moyens. Quatre-vingt-quatre pour cent des personnes qui participent à ce réseau de 200 000 comptes sont des Canadiens moyens — des Canadiens qui ne gazouillent pas beaucoup et qui ne sont pas nécessairement très actifs sur les médias sociaux. C’est à la fois une occasion et une menace. L’occasion, c’est qu’il s’agit de Canadiens moyens, de sorte qu’ils peuvent être joints et mobilisés, mais cela signifie également que ces stratégies et ces opérations d’influence nécessitent des Canadiens moyens et sont amplifiées par ces Canadiens moyens. Par conséquent, ils mettent à profit leur mobilisation. C’est donc un défi parce que ce n’est pas quelque chose qui peut être contrôlé dans ce sens, si nous devions même essayer de le faire.

J’ai deux derniers points. Premièrement, au cours des trois mois qui ont précédé l’invasion russe, nous avons vu quadrupler le contenu lié à la désinformation russe visant précisément les Canadiens, qu’il s’agisse de Canadiens en particulier ou de contenu canadien. Elle a été préméditée avant l’invasion afin de façonner les idées et les valeurs sur ce qui allait se passer. Encore une fois, de toute évidence, la Russie pensait que c’était important, sinon elle ne l’aurait pas fait, mais cela démontre un effort sophistiqué et coordonné pour être en mesure d’accélérer le tout avant l’invasion. Les investissements se sont poursuivis, augmentant essentiellement de 8 % chaque mois depuis.

Le président : Merci, monsieur McQuinn. Voulez-vous ajouter autre chose, monsieur Buntain?

Cody Buntain, professeur adjoint, École des sciences de l’information, College Park, Université du Maryland, à titre personnel : Merci. C’est un plaisir et un honneur de comparaître devant vous pour parler de la désinformation et de la manipulation en ligne, ainsi que de leurs répercussions sur la sécurité nationale.

J’ai organisé mon témoignage en deux points principaux : d’abord, ce que nous savons de la désinformation et de la technologie, surtout au Canada; et ensuite, les voies à suivre pour améliorer ces espaces dans la perspective de la sécurité nationale.

Disons d’abord que les questions d’intégrité de l’information, de désinformation et de manipulation sont de nature sociotechnique, souvent causées par l’amplification technologique de problèmes sociaux existants. Si les espaces en ligne ont certainement fait ressortir de nouvelles vulnérabilités, en même temps, il n’en reste pas moins qu’ils ont été extrêmement utiles pour leur valeur pour le public. Pendant les crises ou en temps d’agitation et de catastrophe, le public compte sur ces plateformes. Mais en même temps — et c’est ainsi que je me suis mis à l’examen de ces questions en 2013 après l’attentat du marathon de Boston —, on compte sur ces plateformes, tout en étant beaucoup plus vulnérable à la manipulation en ligne, surtout au genre de manipulation qui cible ces questions ou en rejette le blâme sur des groupes externes, c’est-à-dire quiconque ne fait pas partie de sa tribu, comme des gens qui ne partagent pas son orientation politique, des gens d’un autre pays, des gens qui ne sont pas de la même origine ethnique, et ainsi de suite.

Cette vulnérabilité à l’animosité est particulièrement préoccupante pour l’écosystème moderne de l’information, parce que nous avons des preuves solides que ce genre d’animosité entraîne une nouvelle présence sur les médias sociaux. En d’autres termes, ces types de messages négatifs antisociaux bénéficient de ce qu’on appelle l’amplification algorithmique, où un algorithme pousse certains types de contenus vers ces auditoires.

Si vous ajoutez à ces résultats les préoccupations et les recherches sur l’augmentation du nombre d’incidents d’anxiété autodéclarés en Ontario, au Canada et aux États-Unis, nous avons des populations en ligne qui sont de plus en plus stressées, se tournent de plus en plus vers les médias sociaux et les espaces d’information en ligne pour leur information, sans perdre de vue que ces espaces favorisent des contenus négatifs et antisociaux.

C’est dans ce contexte que la désinformation est particulièrement efficace pour exploiter des sujets controversés comme Black Lives Matter, les droits civils ou les confinements liés à la COVID. Ces campagnes sont particulièrement efficaces pour exploiter des camps politiquement opposés, parce que ces organisations ou groupes ont déjà des groupes ciblés qu’ils connaissent bien pour cibler leurs hostilités, soit le camp politique adverse.

Si nous ramenons cela à la désinformation russe au Canada au sujet de l’Ukraine, il n’est pas surprenant de constater des efforts de désinformation ciblant les deux camps chez nous.

Lorsque nous avons commencé avec un premier ensemble de comptes alignés sur la Russie qui faisaient la promotion des messages pro-Kremlin au Canada, nous avons utilisé des outils de la science des réseaux et des données pour élargir notre ensemble de comptes afin de repérer les influenceurs ou les élites dans ces domaines. Nous constatons que ces comptes sont très partisans et très influents. Nous les appelons les « élites partisanes ». Ils existent des deux côtés de l’échiquier politique. Comme M. McQuinn l’a déjà mentionné, ces élites ont un important auditoire comparable à certains des comptes en ligne les plus actifs et les plus populaires, des Canadiens de Montréal aux célébrités et aux journalistes locaux. Malheureusement, nous ne pouvons pas lutter efficacement contre la désinformation en nous concentrant uniquement sur les élites, car leurs auditoires occupent un vaste espace. Comme M. McQuinn l’a mentionné, 80 % des auditoires qui diffusent ces messages sont des Canadiens moyens qui ont relativement peu d’adeptes.

Malgré leur popularité auprès de ces auditoires, les récits propres au Canada au sujet de la diaspora ukrainienne et des sanctions canadiennes ne sont pas les seuls à se répandre. Ils existent parallèlement à des sujets généraux anti-OTAN, anti‑occidentaux, et pro-Kremlin où ces sujets internationaux et les élites d’autres pays suscitent également une vive sympathie au sein de ces auditoires canadiens. Cela signifie que nous devons envisager la situation dans un contexte plus global de conflit d’information et intervenir pour contrer ces menaces en constante évolution.

Ce besoin est évident dans le chevauchement entre les écosystèmes d’information canadien, américain, britannique et international. Même les espaces d’information les plus censurés ont un certain degré d’intégration mondiale. Ces frontières numériques poreuses laissent la désinformation se répandre facilement par-delà les frontières nationales, comme dans le cas de QAnon et de sa prolifération, et avec l’avancement de la vaccination anti-États-Unis ou anti-Ouest.

Nous ne devons pas non plus nous cantonner dans l’étude rétrospective de ces efforts de désinformation. Vu les contraintes capricieuses des plateformes sur les chercheurs externes comme nous, caractériser rétrospectivement les écosystèmes autour de ces sujets a souvent un coût prohibitif. Il est difficile et coûteux de répondre rétrospectivement aux questions qui ont été soulevées dans cette salle au sujet de la taille de l’auditoire et de l’élément de désinformation le plus influent.

Nous ne pouvons pas non plus compter sur ces entreprises de technologie pour notre sécurité nationale, et bien que nous ayons de bons modèles de la façon dont ces entreprises peuvent collaborer avec des partenaires locaux et la société civile, ces partenariats restent fondés sur la bonne volonté de ces entreprises. Cette bonne volonté peut fondre à tout moment, comme nous l’avons vu avec les changements que Twitter a apportés à la façon dont les universitaires font leurs recherches sur la plateforme.

Nos besoins de partenariats public-privé et de programmes prospectifs et l’évaluation continue des efforts d’influence potentiels croîtront forcément à mesure que nos concurrents et nos rivaux stratégiques se raffineront, et que nous aurons des choses à dire au sujet des niveaux de raffinement, pour répondre à la question posée plus tôt.

Nous n’avons guère de garantie que les méthodes que nous utilisons aujourd’hui pour suivre la désinformation russe fonctionneront demain, et nous avons de bonnes preuves que les stratégies de désinformation d’autres concurrents stratégiques comme la Chine sont sensiblement différentes de celles de la Russie. Il est peu probable que ce que nous utilisons contre la Russie donne des résultats lorsque nous examinerons la désinformation chinoise, ce qui laissera substantiellement ouvertes les questions sur notre sécurité nationale et l’intégrité de l’information à l’échelle mondiale.

Encore une fois, merci. C’est avec plaisir que je répondrai à vos questions.

Le président : Merci beaucoup, monsieur Buntain.

Nous allons maintenant passer aux questions. Je rappelle aux membres que nous avons jusqu’à 18 h 10 avec ce groupe de témoins. Je vous demande de poser des questions brèves et de nommer la personne à qui vous les adressez. Encore une fois, quatre minutes seront allouées aux questions. Nous allons commencer par notre vice-président, le sénateur Dagenais.

[Français]

Le sénateur Dagenais : Ma question s’adresse à M. Buntain. Les politiciens et les institutions gouvernementales font un usage important et stratégique — du moins, ils le pensent — des médias sociaux. Les dernières campagnes électorales américaines nous ont montré à quel point les médias traditionnels peuvent être mis de côté au service de Twitter, de Facebook, et des autres médias sociaux de ce monde.

Dans le cadre de vos recherches, avez-vous pu établir quel pourcentage d’utilisateurs ont utilisé ces modes de communication pour donner de l’information vraie comparativement à ceux qui tentent de faire de la manipulation? Dans quelle mesure la crédibilité des institutions démocratiques est-elle menacée par des groupes qui cherchent à déstabiliser les pouvoirs en place?

[Traduction]

M. Buntain : Merci beaucoup de la question. Si j’ai bien compris, vous voulez savoir dans quelle mesure le public et les politiciens utilisent les médias sociaux pour communiquer de l’information vraie ou fausse.

C’est une question philosophique. Certes, les médias sociaux sont extrêmement utiles pour partager de l’information. Nous nous rallions à cette idée de sens collectif, où la vérité est un concept collectif sur lequel nous nous mettons d’accord pour dire qu’il est correct. De fait, les médias sociaux peuvent être très utiles à cet égard. La professeure Amy Bruckman de Georgia Tech a publié des travaux sur Wikipédia, où certaines des premières pages frontispices de Wikipédia sont de la plus grande qualité jamais produite par l’espèce humaine parce que ce genre de contenu rejoint tellement de lecteurs.

Nous examinons les médias sociaux, en particulier Facebook et Twitter. Les politiciens font certainement une utilisation stratégique de ces plateformes. Les acteurs politiques et les sondages que nous avons effectués montrent bien qu’ils ne ciblent pas toujours les différents auditoires de la même façon. Souvent, ils mettent en valeur des programmes particuliers auprès d’auditoires différents, mais ces plateformes sont relativement ouvertes à l’idée de dire aux personnes qu’elles ont tort. La meilleure façon d’obtenir de la bonne information sur Internet est de publier des erreurs pour provoquer des protestations.

Il est difficile de déterminer dans quelle mesure l’information est de bonne ou de mauvaise qualité. En moyenne, nous constatons que la grande majorité de l’information est exacte ou de fiabilité inconnue. Elle est impossible à vérifier. Nous voyons une proportion non négligeable, mais quand même limitée, d’information qui est clairement inexacte. La question de différencier l’exact de l’inexact risque de lancer le chercheur sur une fausse piste dans ce cas-ci, car la grande majorité de l’information n’est pas directement vérifiable : des gens qui nous font part de leurs expériences personnelles et de ce qui leur est arrivé pendant la COVID, les confinements ou en Ukraine.

La question est excellente.

[Français]

Le sénateur Dagenais : Sur les médias sociaux, il y a des informations importantes et d’autres insignifiantes, bien que les insignifiantes soient parfois dérangeantes pour certaines personnes nommées ou visées. Est-ce qu’il faut tenter de tout corriger, même au prix de donner de l’importance aux auteurs de tentatives de désinformation, ou est-ce que les gouvernements doivent toujours s’engager publiquement pour établir la vérité? Dans quelle mesure les tentatives de rétablir la vérité après la diffusion de fausses informations sur les médias sociaux sont‑elles un succès? Seriez-vous capable de nous éclairer à ce sujet?

[Traduction]

M. Buntain : À la première question, celle de savoir si nous devrions essayer de vérifier tous les faits ou de nous assurer que les publications sont correctes, en général, la réponse est non. Des études récentes ont démontré que la vérification des faits comme telle n’est pas particulièrement utiles pour changer les perceptions des lecteurs. On supprime une certaine quantité d’information erronée, mais sans changer l’état d’esprit sous‑jacent qui mène à ce partage.

David Rand et plusieurs autres professeurs se sont penchés là‑dessus dans une perspective psychologique. Nous ne nous lançons pas dans les médias sociaux en tant que public. Le public ne s’engage généralement pas dans les médias sociaux du point de vue de l’exactitude; il s’y engage avec ses émotions. Il ne se pose pas de questions sur l’exactitude ou la fausseté de l’information. Lorsqu’on l’incite à le faire, il le fait beaucoup mieux, mais en général, ce n’est pas ce qu’il cherche.

Quant à savoir si la désinformation a été efficace, dans un certain sens, notre présence dans cette salle en est la preuve. À tout le moins, le récit selon lequel la Russie peut faire n’importe quoi ou que la Chine peut rejoindre le Canadien ou l’Américain moyen ou qui que ce soit d’autre, a été profondément efficace. Même si ce n’est pas tout à fait vrai et même si nos renseignements indiquent que la Russie n’a pas su faire bouger les choses dans bien des cas, elle peut toujours amplifier un message particulier.

Le sénateur Oh : Merci, messieurs, d’être ici.

Selon un article paru en 2019 dans l’American Intelligence Journal sur la désinformation, la Russie a mené des campagnes de désinformation dans plusieurs pays de l’Organisation du Traité de l’Atlantique Nord. Dans quelle mesure les campagnes de désinformation menées par des acteurs ou des pays étrangers affectent-elles la sécurité nationale et la souveraineté? Ma question s’adresse à qui voudra bien y répondre.

M. Kolga : Je peux commencer. Je suis un militant de première ligne et un acteur de la société civile, alors je me lance.

Le premier cas moderne, du moins depuis la fin de la guerre froide, où la Russie a voulu s’ingérer directement dans les affaires d’un pays étranger — en l’occurrence, un de nos alliés de l’OTAN —, c’est celui de l’Estonie, en 2007. En 2007, l’ambassade de Russie a tenté de fomenter l’agitation et de déstabiliser la démocratie estonienne en utilisant la désinformation historique, et a cherché à provoquer des émeutes de la minorité russe. Cela était combiné à une série de cyberattaques menées, nous le savons maintenant, par le gouvernement russe. Grâce à son expérience d’occupation par l’Union soviétique et à son expérience de longue date de la désinformation russe, l’Estonie a fait preuve de résilience face à ces efforts. C’était vraiment le premier terrain d’essai des opérations d’information russes. Bien sûr, le gouvernement estonien a su repousser ces émeutes, et les choses se sont très bien passées pour l’Estonie.

Nous avons vu des tentatives ultérieures de recourir aux opérations d’information pour déstabiliser diverses démocraties. Nous l’avons vu en Géorgie en 2008 avec les attaques en Ossétie du Sud et en Caucasie. Cela était accompagné d’opérations d’information. Le gouvernement russe a essayé d’utiliser l’information pour s’ingérer dans diverses élections en Europe. Nous avons vu, bien sûr, ce qui s’est passé aux États-Unis en 2016, c’est-à-dire, je dirais, une sorte de bombe nucléaire dans les opérations d’information. Les retombées de cette opération n’ont pas encore fini de se faire sentir.

Je ne pense pas qu’il y ait la moindre indication que la Russie va réduire ses opérations. Nous avons entendu plusieurs fois depuis une heure ou heure et demie que ces opérations pourtant peu coûteuses, peuvent avoir un impact considérable sur nos démocraties, surtout en ce qui concerne les objectifs de la Russie, qui sont de détourner l’attention, de déformer la vérité et de déstabiliser la démocratie. C’est ce qui se produit depuis un certain temps. Malheureusement, pour une grande partie du monde occidental, y compris le Canada, il aura fallu une guerre et des dizaines de milliers de vies civiles et des milliards de dollars de dommages pour que nous puissions le reconnaître et commencer à réfléchir à notre réaction.

Le sénateur Cardozo : Dites-moi donc ce qu’il advient des choses qui sont en ligne et qui viennent de l’extrême droite ou de l’extrême gauche. À quel moment s’infiltrent-elles dans le courant dominant de notre régime politique? Je pense à des choses comme la COVID et le convoi des camionneurs. Ce que nous entendions alors s’infiltrait dans nos partis politiques.

Ma deuxième question, que j’aimerais poser en même temps, est la suivante : le gouvernement a-t-il un rôle à jouer à cet égard? Le gouvernement fédéral prévoit un projet de loi sur les préjudices en ligne. Qu’en pensez-vous? Je pourrais peut-être commencer par M. Buntain, et M. McQuinn, puis M. Kolga.

M. Buntain : Je vous remercie de votre question.

Pour répondre à votre première question au sujet de ce processus où l’information commence dans le milieu partisan, avant de se répandre, nous savons que cela débute souvent dans les petites collectivités, sur des plateformes ou des espaces en ligne relativement spécialisés. Il peut s’agir de groupes privés sur Facebook, de collectivités privées de Reddit ou de 4chan — ces espaces d’information nouveaux. En particulier, il semble que l’extrême droite n’a aucun mal à transmettre l’information de ces petits groupes dans des espaces de plus en plus dominants jusqu’à ce qu’ils fassent la une de foxnews.com, par exemple. Il y a certainement un processus ou un pipeline pour cette information. En même temps, nous avons de bonnes recherches qui montrent que ces messages sont souvent raffinés et diffusés en petits groupes avant d’être diffusés sur les grandes plateformes.

Pour répondre à votre deuxième question sur le rôle du gouvernement, je trouve incroyable que nous ayons toute une industrie autour de plateformes technologiques qui propagent des émotions négatives susceptibles d’avoir de profondes répercussions négatives sur leurs utilisateurs — et nous en avons de nombreux exemples — et qui échappent à la réglementation comme jamais. Si je construis une nouvelle voiture et que j’invente un nouveau coussin gonflable, la réglementation a certainement un rôle à jouer. Par conséquent, je suis absolument convaincu que le gouvernement a l’occasion d’intervenir et de dire aux plateformes qu’elles doivent comprendre les préjudices qu’elles causent, qu’elles doivent prendre des initiatives pour le faire activement en toute transparence et qu’elles doivent informer le public de ces préjudices. À l’heure actuelle, rien ne les y incite, et l’information n’est généralement rendue publique qu’à la suite de dénonciations ou de fuites, comme nous l’avons vu avec Frances Haugen lorsqu’elle est venue au Congrès américain pour parler de tous ces documents que Facebook avait à l’interne et qui montraient que Facebook causait des préjudices. Nous ne le savions pas officiellement.

M. McQuinn : Certaines études déjà effectuées au Canada révèlent que 51 % des Canadiens ont été exposés à un moment ou à un autre à une forme quelconque de désinformation russe. C’est un nombre extraordinaire. Nos recherches au centre et ailleurs nous ont fait constater que, pendant la pandémie, bon nombre de ces collectivités disparates à l’extrême gauche et à l’extrême droite — des collectivités extrémistes — se sont métastasées d’une façon que nous commençons tout juste à comprendre. Très peu de travail est fait. Une grande partie du travail se fait aux États-Unis. Une bonne partie de la recherche s’attache à l’extrême droite aux États-Unis et là-bas seulement, sans jamais traverser la frontière.

Par conséquent, s’agissant du rôle du gouvernement, il y a une occasion en or pour de nombreux centres — pas seulement le nôtre — de faire beaucoup plus pour comprendre les particularités du fonctionnement de ces réseaux au Canada. Ils ne fonctionnent pas comme ceux des États-Unis parce que nous n’avons pas de Fox News. Nous avons des éléments très différents. Il y a beaucoup à comprendre sur la façon dont ils se chevauchent de façons très particulières qui sont très différentes de celles d’autres pays.

[Français]

Le sénateur Boisvenu : Ma question s’adresse à M. Kolga. Vous avez travaillé sur un cas particulier de désinformation, l’histoire du député, Kenny Chiu qui, après avoir déposé un projet de loi à la Chambre des communes sur la création d’un registre des acteurs influents étrangers, aurait apparemment été victime de désinformation, ce qui selon lui, lui a fait perdre ses élections.

J’ai appris par l’entremise de Radio-Canada que vous aviez enquêté sur ce dossier. Pourriez-vous nous transmettre ou partager avec nous certaines de vos conclusions sur cette campagne de désinformation? Pourriez-vous également expliquer au comité quelles sources d’information ou quels réseaux sociaux, par exemple, ont été utilisés par le gouvernement communiste pour diffuser cette désinformation?

[Traduction]

M. Kolga : Merci beaucoup de cette question.

DisinfoWatch a été la première organisation de la société civile canadienne à détecter et à exposer les opérations d’information menées par le gouvernement chinois lors des élections fédérales de 2021. Nous avons d’abord suivi les médias d’État russes — les médias d’État anglophones — le Global Times. Ils avaient publié un récit extrêmement critique de la plateforme de politique étrangère du Parti conservateur et de son chef et menaçaient les Canadiens de représailles si les conservateurs devaient accéder au pouvoir. C’est le premier récit que nous avons détecté.

Ensuite, grâce à notre étroite collaboration avec la société civile et les organisations communautaires chinoises, nous avons été alertés à divers récits circulant sur les plateformes de médias sociaux contrôlées par l’État chinois — WeChat, par exemple. Il s’agissait de récits qui avaient migré de WeChat à diverses plateformes en ligne de la collectivité chinoise locale qui ciblaient un député — Kenny Chiu —, comme vous l’avez mentionné. Juste avant les élections, Kenny Chiu avait présenté à la Chambre des communes un projet de loi d’initiative parlementaire proposant un registre des agents d’influence étrangère. Cette loi — son projet de loi d’initiative parlementaire — était ciblée sur ces plateformes, donnant à croire que le député essayait de présenter une mesure législative pour limiter la voix de divers groupes minoritaires au Canada. Nous avons exposé ces récits et essayé de les expliquer au public canadien. On ne sait pas s’ils ont eu un impact particulier sur le résultat de l’élection dans sa circonscription. Nous ne savons pas quel a été l’impact. Mais le fait est que ces récits étaient là, qu’ils s’alignent sur le gouvernement chinois, ce qui a de quoi inquiéter.

[Français]

Le sénateur Boisvenu : Nous avons également appris qu’il y avait des postes de police créés par le Parti communiste chinois dans trois villes canadiennes. Ces postes de police existent toujours, par exemple à Montréal. Ils n’ont pas été fermés. Ont‑ils joué un rôle dans cette campagne de désinformation à l’échelle locale?

[Traduction]

M. Kolga : Nous n’en avons pas de preuve précise. Lorsque nous avons été mis au fait de ces récits qui ont émergé sur différentes plateformes, nous les avons analysés et exposés. Nous n’avons pas examiné le rôle des postes de police.

M. McQuinn : C’est une chose que le centre commence à faire cet été. C’est la prochaine étape. Une progression naturelle des travaux que nous avons publiés sur les opérations d’influence russes consiste à examiner les autres influences d’État et à créer des liens pour comprendre — c’est le travail de M. Buntain et d’autres — comment la désinformation en ligne se rapporte à des événements réels sur le terrain dans le monde cinétique, le monde réel. Dans ce cas-ci, on a une opération beaucoup plus avancée parce qu’on a de la désinformation en ligne avec des opérations réelles sur le terrain. Il faudra aussi surveiller les espaces en ligne et la façon dont ils se traduisent en stratégies précises pour cibler certains groupes et collectivités. Nous allons explorer tout cela au cours des prochains mois.

Le sénateur Richards : J’adresse ma question à M. Kolga. Dans quelle mesure les relations entre la Russie et la Chine sont‑elles inégales, selon vous, et qu’est-ce que la Chine a à gagner à part le pétrole et une voie d’accès au Nord? Je pense que cela déstabilise complètement l’Ouest démocratique, le président Xi tirant les ficelles de Poutine. Qu’en pensez-vous?

M. Kolga : Merci.

Je serai très bref à ce sujet parce que je suis sûr que nous voulons revenir — j’ai déjà dit officiellement que le président Xi considère actuellement la Russie comme sa station-service à prix réduit. C’est vrai. La Chine profite de l’essence et des ressources à bas prix grâce à cette guerre. Je pense qu’il est dans l’intérêt de la Chine de voir un blocage plutôt qu’une résolution complète de ce conflit — peut-être une sorte d’armistice qui garantirait le maintien des sanctions occidentales contre la Russie. Comme je l’ai dit, le président Xi profite de ces bas prix, et il veut que la situation soit permanente. Le président Xi contrôle cette relation. Vladimir Poutine a désespérément besoin de l’argent de la Chine, des revenus de l’essence et des ressources qu’il vend. Il a aussi besoin des armes de la Chine, et il faut espérer que la Chine ne lui enverra ni armes ni munitions. C’est effectivement une relation à l’envers.

Le sénateur Richards : Pensez-vous que le président Xi pourrait avoir une influence pour mettre fin à la guerre?

M. Kolga : Le président Xi pourrait avoir une influence sur l’arrêt de cette guerre si nous le lui permettions. Le président Macron est allé en Chine, et il semble que le président Xi et lui soient en train d’élaborer une sorte de proposition. Oui, j’imagine que si le président Xi voulait dire à Vladimir Poutine de ramener ses forces là où elles étaient en février 2022, je suis certain que cela faciliterait l’ouverture de la voie vers une paix réelle.

Le sénateur Kutcher : Ma question s’adresse à M. Kolga, puis aux autres, si le temps le permet. La Russie a fait la promotion de la désinformation en matière de santé, en particulier contre la vaccination, ce qui a semé la discorde sociale et la méfiance à l’égard de la santé publique. C’est arrivé bien avant la guerre d’Ukraine. Elle a créé un lien entre les mamans du bien-être de gauche et la droite libertaire. Le phénomène était fascinant à suivre. Plus récemment, Frank Graves et EKOS ont créé un indice de désinformation. Chose intéressante, les taux élevés de désinformation sur la santé sont étroitement liés à la propagande russe et à la méfiance à l’endroit des institutions démocratiques. Que pensez-vous de cette relation entre la désinformation en matière de santé et la propagande dirigée par la Russie? Avez-vous des idées sur la façon dont ce lien pourrait nous aider à mieux comprendre comment contrer la désinformation maligne produite par l’État?

M. Kolga : C’est une excellente question.

Nous avons d’abord détecté que la Russie ciblait la réticence vaccinale et la santé pour tenter de déstabiliser diverses nations et sociétés déjà en 2019, bien avant la COVID. Les Russes ciblaient la réticence vaccinale dans l’Ouest des États-Unis parmi l’extrême gauche et certains éléments de l’extrême droite, et en particulier les vaccinations infantiles. En 2019, l’Organisation mondiale de la santé indiquait dans son rapport que la réticence et la désinformation vaccinales constituaient la principale menace pour la santé mondiale.

Lorsque la COVID est arrivée, plusieurs d’entre nous qui suivaient les opérations d’information de la Russie prévoyaient que la Russie ciblerait la COVID et divers aspects de celle-ci et exploiterait la pandémie annoncée pour promouvoir ses intérêts. La Russie est devenue très efficace pour cerner les questions les plus polarisantes de notre société et pour essentiellement mordre de la gauche et de la droite pour tout déchirer. La COVID offrait un terreau fertile pour ce genre d’opérations.

En mars 2020, East StratCom de l’Union européenne a prévenu que la Russie utiliserait la COVID pour polariser notre société, tout en ajoutant qu’elle tenterait d’intensifier les effets de la COVID et de la pandémie. Effectivement, c’est ce qu’a fait la Russie. Nous l’avons vue promouvoir la réticence vaccinale tout au long de la pandémie et adapter ses messages à des groupes qui faisaient la promotion de messages anti-vaccination et anti-confinement. Cela a duré le temps de la pandémie jusqu’aux manifestations des camionneurs contre le confinement ici à Ottawa. Nous avons vu les médias d’État russes offrir une tribune à bon nombre de ces voix extrémistes au sein de ce mouvement qui, autrement, n’auraient pas parlé à des groupes de plus de 20 ou 30 personnes. Tout à coup, la chaîne RT offrait à ces personnes une plateforme mondiale pour exposer leurs vues. Cela a contribué à leur légitimation et à leur amplification.

Comme je l’ai dit, la Russie réussit très bien à cerner ces questions polarisantes, celles qui divisent le plus la société, et à les exploiter. Sachant cela, nous pouvons par ailleurs prévoir quels enjeux la Russie tentera d’exploiter désormais. En tant que société, nous devrions prendre les devants et expliquer aux Canadiens, à nos médias et à nos élus pourquoi les Russes vont s’en tenir à des récits précis et quel est le résultat attendu, tout en sensibilisant les Canadiens et, espérons-le, les inoculant contre eux pour l’avenir.

Le président : Voilà d’excellents commentaires. C’est très utile.

Le sénateur Boehm : Monsieur Kolga, vous avez dit une chose qui m’a interpellé dans votre déclaration. Vous avez parlé de la désinformation russe axée sur les partis Die Linke et AfD, en Allemagne. Bien sûr, dans ce pays où ces deux partis sont très forts, il y a les anciens États de l’Allemagne de l’Est qui faisaient partie de l’ex-Allemagne de l’Est.

Cela m’a amené en Afrique et à une question que le sénateur Dagenais a posée dans le dernier groupe de témoins. Ma question concerne le groupe Wagner et, de façon générale, la façon dont la désinformation semble tomber dans un terreau fertile en Afrique en ce qui concerne la guerre en Ukraine, comme en témoigne le nombre d’abstentions sur les diverses résolutions de l’Assemblée générale des Nations unies et ainsi de suite. Il n’y a pas de contre-récits, ce qui pose problème. J’aimerais savoir ce que vous en pensez, ou ce que pensent les autres témoins.

M. Kolga : Encore une fois, c’est une excellente question. Merci.

En effet, Wagner a été extrêmement actif en Afrique subsaharienne ces dernières années — en Libye, en Afrique du Sud, au Mozambique et à Madagascar. Il a participé activement à des opérations de désinformation, souvent pour aider les hommes forts à garder le pouvoir, ainsi que leurs mercenaires. Cela a nettement un effet sur l’Afrique. Comme vous l’avez mentionné, 17 pays se sont abstenus de voter sur la résolution. Nous devons accorder beaucoup plus d’attention à l’Afrique. Il y a un an et demi environ, j’ai publié un rapport sur l’influence des gouvernements chinois et russe en Afrique. Nous avons constaté que nous avons essentiellement oublié l’Afrique depuis une dizaine d’années. Étant donné que nous n’avons pas joué un rôle actif en Afrique, c’est-à-dire dans le monde occidental, le Canada compris, la Chine et la Russie y ont vu une occasion. La Chine est extrêmement active depuis la fin de la guerre froide. La Russie redevient active. À moins que nous fassions quelque chose pour nous réengager en Afrique, je crains que la Russie — et surtout Wagner — et le gouvernement chinois ne dominent la région et n’aient la voie libre pour promouvoir leurs intérêts là‑bas.

M. Buntain : Je trouve très intéressante cette question au sujet du groupe Wagner parce qu’elle nous amène aux capacités de désinformation qui ne sont pas du ressort des États. Rien ne dit que ces outils-là servent exclusivement à des agents d’État. M. McQuinn et moi avons commencé par étudier comment les talibans se sont servi des médias sociaux pour favoriser leur accession au pouvoir en Afghanistan il y a des années. Ces agents non étatiques sont très habiles avec cette technologie pour influencer l’opinion. Nous savons qu’en Afrique en particulier, la Russie met à l’essai une bonne partie de ses campagnes d’influence parce que les plateformes de médias sociaux n’ont pas vraiment la volonté ou les ressources nécessaires sur le terrain pour y faire face. La Russie a le champ libre pour y tester ce qu’elle veut faire.

La sénatrice M. Deacon : Merci d’être ici aujourd’hui.

Comme on l’a dit plus tôt, monsieur McQuinn, nous aimerions en savoir davantage sur les différences entre les réseaux. Vous avez dit que c’était différent aux États-Unis et au Canada. S’il y a quelque chose que nous pouvons apprendre de vous après cette réunion, ce serait formidable. Compte tenu du travail qui vous attend cet été, vous pourriez vous retrouver de nouveau ici au sein de ce groupe. Cela ressemble déjà à une invitation à revenir nous voir.

Je vais faire de mon mieux avec les trois sujets que j’ai. Je m’écarte un instant des médias sociaux pour parler des zones de guerre et des champs de bataille mêmes. Je m’interroge sur l’effet et l’incidence des médias sociaux sur les conflits. Dans au moins un cas, ce qui veut dire qu’il y en a sans doute beaucoup, l’Ukraine a utilisé les médias sociaux des troupes russes pour cibler leurs positions. Nous savons que l’usage du cellulaire est répandu dans les deux camps. Y a-t-il des leçons que les Forces armées canadiennes peuvent tirer de cette guerre en ce qui concerne les troupes et les médias sociaux? Je sais qu’heureusement, les Forces canadiennes sont beaucoup plus disciplinées pour ne pas révéler leurs positions. Cependant, comme nous savons pertinemment que la désinformation peut radicaliser n’importe qui, est-ce que nos soldats sont bien entraînés pour repérer la désinformation?

M. McQuinn : Puisqu’ils me regardent tous les deux, je vais dire deux choses, puis je leur céderai la parole.

Récemment, le président de la Croix-Rouge s’est rendu en Ukraine. J’en parle parce que la campagne de désinformation qui a suivi au sujet du rôle du Comité international de la Croix-Rouge dans les enlèvements d’enfants et ce genre de conspiration QAnon a été si efficace que la Croix-Rouge ukrainienne a rompu les liens avec le CICR. On a réussi à créer ce genre de division au sein du mouvement. Je dirais que c’est la fine pointe de ce qui se passe actuellement en Ukraine en ce qui concerne les médias sociaux et l’usage qu’on en fait.

Vous abordez en quelque sorte le rôle des armées d’État et l’usage qu’elles font des médias sociaux. Depuis toujours, comme vous l’avez souligné, les soldats n’ont pas le droit de les utiliser, pour des raisons évidentes; ils dévoileraient leurs positions. Or, il apparaît aussi que l’Ukraine a pris le dessus dans l’arène des médias sociaux en laissant ses soldats raconter leurs histoires en ligne. C’est quelque chose que l’armée américaine examine. Regardez nos recherches antérieures sur la façon dont les talibans ont dominé le paysage médiatique de l’Afghanistan et ont pu déloger aisément les puissances occidentales des années, sinon des mois, plus tôt qu’on ne s’y attendait.

Je pense que tout le monde surveille ce qui se passe là-bas et essaie de comprendre l’avantage pratique qu’une armée d’État peut en tirer. Ce n’est pas sans risque parce qu’on peut cibler des gens du même coup. Tout le monde regarde pour voir comment les choses vont se dérouler.

M. Buntain : L’usage qu’on fait des médias sociaux en Ukraine à l’heure actuelle est très intéressant, même du point de vue des acteurs non étatiques. Nous avons des études sur la façon dont la milice ukrainienne utilise des sites comme Twitter et Facebook pour essentiellement recueillir des dons à l’échelle internationale. Elle publie sur Twitter ou sur une plateforme appelée QuickNote.io en disant : « Voici mon numéro de compte bancaire. Envoyez-moi de l’argent » ou « Voici l’endroit où vous pouvez nous envoyer des drones ou du matériel. » Elle affiche ensuite des photos du matériel qu’elle a reçu. Il y a lieu de se demander dans quelle mesure c’est vrai et exact. Est-ce qu’elle veut donner l’impression qu’on lui donne tout ce matériel dans le but d’influer sur le cours de choses? Il y a un écart intéressant entre les plateformes occidentales, la façon dont l’armée et la milice ukrainiennes les utilisent et la façon dont les Russes, qui n’y ont pas accès, n’ont pas le dessus dans cette arène-là.

M. Kolga : Nos soldats stationnés en Lettonie ont été la cible d’opérations de désinformation russes. Récemment, pendant la pandémie de COVID-19, des médias d’État russes en Lettonie ont voulu éroder le soutien de la Lettonie à la mission canadienne en répandant la rumeur que nos soldats propageaient la COVID dans le pays. Ce n’est qu’un cas, mais cela se produit.

Le problème de nos forces à l’heure actuelle, c’est qu’elles n’ont pas la capacité de repousser des opérations d’ordre psychologique, en grande partie à cause de la mauvaise presse qu’elles ont reçue à la suite de mauvaises décisions prises dans le passé sur des opérations d’entraînement. À l’heure actuelle, elles sont complètement exposées à ce genre d’opérations, et je pense que c’est quelque chose que le comité et certainement le Parlement doivent examiner.

Le président : Merci beaucoup.

Je crains que nous en soyons rendus à une dernière question, qui vient de la sénatrice Dasko. C’était enrichissant comme discussion.

La sénatrice Dasko : J’ai lu que, même si les campagnes de désinformation menées depuis la Russie ont augmenté — vous nous avez décrit l’utilisation des réseaux de gauche et de droite à cette fin et tous les efforts déployés par les Russes —, elles n’ont pas connu tellement de succès depuis l’invasion de l’Ukraine, en partie parce qu’il y a tellement d’information vraie qui circule sur l’Ukraine qu’il est difficile d’en répandre de la fausse. Monsieur Kolga, vous avez abordé des thèmes du néonazisme et de ce qui s’ensuit. Si nous examinons la situation d’un point de vue plus global, deux nouveaux pays se sont joints à l’OTAN. Rien qu’à voir comment les choses évoluent, comment le soutien à l’Ukraine grandit en Europe et ainsi de suite, il est clair que les Russes ne gagnent pas la guerre des relations publiques. Qu’en pensez-vous? C’est quelque chose que j’ai lu, alors je n’invente rien. C’est peut-être de la désinformation que je reçois. Quoi qu’il en soit, j’ai lu que ces campagnes n’ont pas eu tellement de succès, malgré toute leur ampleur, qui est immense, comme vous l’avez dit.

Deuxièmement, que pensez-vous de la stratégie, parmi d’autres, qui consiste à combattre la désinformation en révélant les faits à son sujet? Est-ce que c’est une bonne stratégie? Je pose la question parce que nous entendons beaucoup parler des agissements du gouvernement chinois durant nos élections. Cela aussi a causé beaucoup de problèmes. Bien des gens n’en décolèrent pas. À mon avis, il est toujours important d’avoir cette information, mais elle a de quoi perturber aussi, justement parce que nous en entendons parler. « Qu’est-ce que nous sommes censés faire? Qu’en est-il des Chinois? » C’est un exemple que je donne. Est-ce une bonne stratégie de combattre la désinformation en révélant, par l’entremise de nos organismes de sécurité, les efforts qui y sont mis?

M. Buntain : Je me ferai un plaisir de répondre en partie.

La question de l’effet est intéressante; il importe surtout de savoir comment on définit l’effet qu’on attend de cette stratégie. Selon certaines études de mon ancienne alma mater, le Center for Social Media and Politics de l’Université de New York, lors de l’élection présidentielle de 2016, la désinformation russe n’a pas vraiment réussi à infléchir l’issue justement pour la raison que vous relevez, à savoir qu’il y a tellement d’information sur les élections américaines. La vaste majorité de la clientèle exposée était concentrée. Toutes sortes de gens ont été exposés, mais ceux qui l’ont été le plus formaient une petite minorité bien définie qui allait voter à sa guise de toute façon. Nous avons ce genre de discussions. Les gens sont en colère contre la désinformation possible, et nous nous mettons dans la tête que ces pays-là ont la portée voulue pour nous toucher. Si c’est le but, je pense qu’ils y arrivent plutôt bien. Cela dépend de la façon dont nous définissons leur but premier.

Pour répondre à votre deuxième question sur la lutte contre la désinformation, il se fait certainement beaucoup de travaux sur l’inoculation psychologique et son utilité, qui ont sûrement leur valeur. L’inoculation en matière d’élections est vraiment délicate parce qu’on ne sait pas trop comment s’y prendre. Il est beaucoup question de collaboration des entreprises avec la société civile. Je pense que les gouvernements devraient faire la même chose et fournir cette information à la société civile. Au début de la guerre en Ukraine, on a vu des puissances occidentales déclassifier des renseignements sur les armes biologiques pour contrer la propagande qu’on redoutait de la part des Russes quant à la présence de telles armes en Ukraine. C’était une stratégie efficace dans les circonstances. Je pense qu’il y a de la place pour l’appliquer, mais il faut le faire de façon particulière.

M. McQuinn : De voir Zelenski et d’autres dirigeants en Ukraine se montrer si habiles avec les médias sociaux, puis donner carte blanche à leurs militaires pour faire la même chose, cela a changé la donne. S’ils fonctionnaient comme le feraient la plupart des dirigeants et des armées d’État, la question serait différente. Ce n’est pas que la Russie ne gagne pas. Je pense que l’Ukraine est en train de gagner dans ce cas et que la Russie est en train de perdre cette bataille du cyberespace. Ce peut être efficace, mais vous combattez d’autres stratégies qui sont aussi appliquées dans cet espace.

M. Kolga : Je ne suis pas aussi optimiste. Nous avons vu certains de ces propos mensongers des Russes migrer vers l’extrême droite et l’extrême gauche, comme nous l’avons relevé au cours de la dernière heure et demie. Ils ont été diffusés sur des chaînes comme Fox News. Des sondages menés aux États-Unis montrent que l’appui à l’Ukraine est en train de s’amollir, surtout dans l’électorat qui se dit républicain. Je ne dis pas que ce sont les téléspectateurs qui regardaient l’émission de Tucker Carlson — environ trois millions de personnes —, mais l’incidence est réelle. Si nous n’y prenons pas garde, cet amollissement va prendre de l’ampleur.

Le président : Étant donné la nature du sujet d’aujourd’hui, il est bon de terminer par une mise en garde. Il reste encore beaucoup de travail à faire.

Chers collègues, voilà qui met fin à notre réunion. C’est un privilège de remercier M. Kolga, M. McQuinn, M. Buntain et tous nos témoins d’aujourd’hui. Le sujet est d’une extrême importance. Nous avons attendu patiemment ce groupe de témoins et ses propos très enrichissants. Je remercie mes collègues autour de la table, comme je le fais habituellement, d’avoir su tirer le meilleur parti d’un groupe de témoins extraordinaires. Le premier groupe nous a parlé de politiques et de réglementation, du large éventail de solutions réglementaires possibles et de la nécessité de faire preuve d’agilité. La table était mise pour ce deuxième groupe, qui nous a amenés à la pratique de la désinformation — où elle se produit, comment elle se produit, ses variations, les champs où elle se pratique — dans les zones de guerre, dans le contexte des vaccins et des confinements, jusque dans la manifestation des camionneurs qui s’est déroulée devant cet édifice et jusque dans le domaine des élections. Nous avons aussi appris que ce n’est pas seulement l’affaire des États; c’est aussi celle du groupe Wagner, des talibans et d’autres agents qui sont liés à des gouvernements ou financés par eux, dans bien des cas. Tout cela nous éclaire au plus haut point. Nous avons beaucoup appris. Nous allons vouloir des suites à cette discussion. C’est un excellent début pour une enquête que nous aimerions mener, et nous vous en sommes très reconnaissants. Merci.

Chers collègues, avant de lever la séance, nous avons un autre point à l’ordre du jour. Je parle de la correspondance que nous a fait parvenir le sénateur Dagenais au sujet de CANSEC, le salon de la défense et de la sécurité qui s’en vient à Ottawa. Y a-t-il des objections à ce que nous poursuivions à huis clos pour en discuter brièvement? Comme je n’en vois pas, nous allons suspendre brièvement la séance pour remercier nos invités, puis nous poursuivrons à huis clos. Merci.

(La séance est levée.)

Haut de page