Miser sur une IA éthique recèle des possibilités sociales et économiques : sénateur Colin Deacon
Étiquettes
Imaginez que vous êtes sur le point de commencer un examen universitaire important. Déjà stressé, vous vous asseyez devant votre ordinateur, comme tous les cours et évaluations sont désormais donnés en ligne à cause de la pandémie de COVID-19. Peu avant le début de l’examen, le logiciel de surveillance de l’université, qui utilise des algorithmes d’intelligence artificielle (IA) pour vérifier votre identité, demande d’avoir accès à votre webcaméra. Il ne vous reconnaît pas.
C’est ce qui est arrivé à Chelsea Okankwu juste avant un examen, en décembre dernier. Selon le Globe and Mail (en anglais seulement) le logiciel a rejeté à plusieurs reprises son image, lui demandant, entre autres, d’ajuster ses lunettes (elle n’en porte pas) et d’augmenter l’éclairage. L’étudiante de quatrième année en comptabilité à l’Université Concordia, qui est Noire et d’origine africaine, a finalement écrit dans la fenêtre d’aide « Je suis une personne de couleur », après 10 minutes stressantes d’efforts vains. Quelques instants plus tard, elle a été autorisée à prendre l’examen, mais elle a été troublée par les émotions négatives causées par cette mauvaise expérience.
Il ne s’agit que d’un exemple de risque problématique associé à l’IA – un risque de plus en plus omniprésent. Les préjugés raciaux, sexistes et autres peuvent se manifester dans un logiciel qui se veut inoffensif, qu’il soit lié au maintien de l’ordre prédictif, au diagnostic de santé ou à un processus d’embauche automatisé (en anglais seulement).
Les préjugés dans les algorithmes d’IA existent parce qu’ils sont développés par des humains. Les gens ont des préjugés qui risquent d’être amplifiés lorsque les équipes de développement sont homogènes. Trop souvent, cela aboutit à des programmes dont la conception néglige les problèmes qui peuvent survenir lorsqu’ils sont appliqués à des populations diversifiées. Ces programmes sont souvent « aveugles » aux données importantes, notamment les données non agrégées qui mettent en évidence des différences raciales et sexistes importantes. En conséquence, des décennies de préjugés systémiques sont codifiées, numérisant en effet le sexisme ou le racisme.
Comment le gouvernement, les entreprises et la société dans son ensemble doivent-ils faire face à cette menace émergente contre l’équité?
Je pense que nous devrions contrer les préjugés des algorithmes d’IA en étant systématiquement inclusifs. Ce défi représente une occasion d’ouvrir de nouvelles possibilités sociales et économiques en créant des solutions d’IA éthiques ici même, au Canada.
Pensez-y. Deux des influenceurs de l’IA les plus respectés dans le monde – Geoffrey Hinton et Yoshua Bengio – habitent au Canada, qui est devenu une destination de prédilection pour les talents en IA. Nous avons l’une des populations les plus diversifiées de la planète. Ces considérations donnent au Canada beau jeu de devenir un leader mondial dans la commercialisation de solutions d’IA.
Le Canada a également élaboré la première norme du monde qui établit des protections éthiques minimales dans la conception et l’utilisation de systèmes de décision automatisés. Élaborée en 2019 par le Conseil stratégique des DPI, cette Norme nationale du Canada (CAN/CIOSC 101:2019) tient compte des avis des dirigeants principaux de l’information (DPI) des secteurs privé, public et sans but lucratif. Elle vise à aider toutes les entités ouvertes, fermées, sans but lucratif et publiques à s’harmoniser avec les principes fondés sur les valeurs de l’OCDE (en anglais seulement) en ce qui concerne l’intendance d’une IA digne de confiance.
Cette norme a été inspirée par la Directive sur la prise de décision automatisée du gouvernement du Canada et jumelée à une évaluation de l’incidence algorithmique (EIA) utile. L’outil d’EIA permet de catégoriser et de gérer les risques en déterminant exactement le niveau d’intervention humaine, d’examen par les pairs, de surveillance ou de planification d’urgence dont un outil d’IA conçu pour servir les citoyens aura besoin.
Cette surveillance continue est importante, car selon l’ex-DPI du gouvernement du Canada, Alex Benay, « il y a trop de choses que nous ignorons ».
« Nous ne devons pas atteindre le stade où le contrôle des décisions est laissé à des machines sans que nous sachions tout à leur sujet », a ajouté M. Benay, cofondateur du Conseil stratégique des DPI, au Digital Magazine (en anglais seulement) en 2019.
« Ce qui fait le plus peur au monde entier est que de nombreux gouvernements ne semblent pas réaliser le niveau d’automatisation de leurs propres valeurs qu’ils exposent lorsqu’ils traitent avec des fournisseurs potentiels qui utilisent un code de boîte noire ou une adresse IP ».
De plus en plus omniprésents dans notre quotidien, les algorithmes d’IA sont le moteur de notre transformation numérique. Devenons des leaders sociaux et économiques; donnons la priorité à une norme d’IA éthique inégalée dans le monde, pour en faire un avantage concurrentiel pour notre secteur du numérique. De cette façon, nous éviterons que des situations inacceptables et tout à fait évitables comme celle vécue par Chelsea Okankwu se reproduisent. Nous pourrons ainsi créer des possibilités plus inclusives pour tous les Canadiens, tant au pays qu’à l’étranger.
Le sénateur Colin Deacon représente la Nouvelle-Écosse au Sénat.
Cet article a été publié le 24 mars 2021 dans le journal The Hill Times (en anglais seulement).
Imaginez que vous êtes sur le point de commencer un examen universitaire important. Déjà stressé, vous vous asseyez devant votre ordinateur, comme tous les cours et évaluations sont désormais donnés en ligne à cause de la pandémie de COVID-19. Peu avant le début de l’examen, le logiciel de surveillance de l’université, qui utilise des algorithmes d’intelligence artificielle (IA) pour vérifier votre identité, demande d’avoir accès à votre webcaméra. Il ne vous reconnaît pas.
C’est ce qui est arrivé à Chelsea Okankwu juste avant un examen, en décembre dernier. Selon le Globe and Mail (en anglais seulement) le logiciel a rejeté à plusieurs reprises son image, lui demandant, entre autres, d’ajuster ses lunettes (elle n’en porte pas) et d’augmenter l’éclairage. L’étudiante de quatrième année en comptabilité à l’Université Concordia, qui est Noire et d’origine africaine, a finalement écrit dans la fenêtre d’aide « Je suis une personne de couleur », après 10 minutes stressantes d’efforts vains. Quelques instants plus tard, elle a été autorisée à prendre l’examen, mais elle a été troublée par les émotions négatives causées par cette mauvaise expérience.
Il ne s’agit que d’un exemple de risque problématique associé à l’IA – un risque de plus en plus omniprésent. Les préjugés raciaux, sexistes et autres peuvent se manifester dans un logiciel qui se veut inoffensif, qu’il soit lié au maintien de l’ordre prédictif, au diagnostic de santé ou à un processus d’embauche automatisé (en anglais seulement).
Les préjugés dans les algorithmes d’IA existent parce qu’ils sont développés par des humains. Les gens ont des préjugés qui risquent d’être amplifiés lorsque les équipes de développement sont homogènes. Trop souvent, cela aboutit à des programmes dont la conception néglige les problèmes qui peuvent survenir lorsqu’ils sont appliqués à des populations diversifiées. Ces programmes sont souvent « aveugles » aux données importantes, notamment les données non agrégées qui mettent en évidence des différences raciales et sexistes importantes. En conséquence, des décennies de préjugés systémiques sont codifiées, numérisant en effet le sexisme ou le racisme.
Comment le gouvernement, les entreprises et la société dans son ensemble doivent-ils faire face à cette menace émergente contre l’équité?
Je pense que nous devrions contrer les préjugés des algorithmes d’IA en étant systématiquement inclusifs. Ce défi représente une occasion d’ouvrir de nouvelles possibilités sociales et économiques en créant des solutions d’IA éthiques ici même, au Canada.
Pensez-y. Deux des influenceurs de l’IA les plus respectés dans le monde – Geoffrey Hinton et Yoshua Bengio – habitent au Canada, qui est devenu une destination de prédilection pour les talents en IA. Nous avons l’une des populations les plus diversifiées de la planète. Ces considérations donnent au Canada beau jeu de devenir un leader mondial dans la commercialisation de solutions d’IA.
Le Canada a également élaboré la première norme du monde qui établit des protections éthiques minimales dans la conception et l’utilisation de systèmes de décision automatisés. Élaborée en 2019 par le Conseil stratégique des DPI, cette Norme nationale du Canada (CAN/CIOSC 101:2019) tient compte des avis des dirigeants principaux de l’information (DPI) des secteurs privé, public et sans but lucratif. Elle vise à aider toutes les entités ouvertes, fermées, sans but lucratif et publiques à s’harmoniser avec les principes fondés sur les valeurs de l’OCDE (en anglais seulement) en ce qui concerne l’intendance d’une IA digne de confiance.
Cette norme a été inspirée par la Directive sur la prise de décision automatisée du gouvernement du Canada et jumelée à une évaluation de l’incidence algorithmique (EIA) utile. L’outil d’EIA permet de catégoriser et de gérer les risques en déterminant exactement le niveau d’intervention humaine, d’examen par les pairs, de surveillance ou de planification d’urgence dont un outil d’IA conçu pour servir les citoyens aura besoin.
Cette surveillance continue est importante, car selon l’ex-DPI du gouvernement du Canada, Alex Benay, « il y a trop de choses que nous ignorons ».
« Nous ne devons pas atteindre le stade où le contrôle des décisions est laissé à des machines sans que nous sachions tout à leur sujet », a ajouté M. Benay, cofondateur du Conseil stratégique des DPI, au Digital Magazine (en anglais seulement) en 2019.
« Ce qui fait le plus peur au monde entier est que de nombreux gouvernements ne semblent pas réaliser le niveau d’automatisation de leurs propres valeurs qu’ils exposent lorsqu’ils traitent avec des fournisseurs potentiels qui utilisent un code de boîte noire ou une adresse IP ».
De plus en plus omniprésents dans notre quotidien, les algorithmes d’IA sont le moteur de notre transformation numérique. Devenons des leaders sociaux et économiques; donnons la priorité à une norme d’IA éthique inégalée dans le monde, pour en faire un avantage concurrentiel pour notre secteur du numérique. De cette façon, nous éviterons que des situations inacceptables et tout à fait évitables comme celle vécue par Chelsea Okankwu se reproduisent. Nous pourrons ainsi créer des possibilités plus inclusives pour tous les Canadiens, tant au pays qu’à l’étranger.
Le sénateur Colin Deacon représente la Nouvelle-Écosse au Sénat.
Cet article a été publié le 24 mars 2021 dans le journal The Hill Times (en anglais seulement).