Délibérations du comité sénatorial permanent des
Affaires sociales, des sciences et de la technologie
Fascicule no 22 - Témoignages du 4 mai 2017
OTTAWA, le jeudi 4 mai 2017
Le Comité sénatorial permanent des affaires sociales, des sciences et de la technologie se réunit aujourd'hui, à 10 h 31, afin de poursuivre son étude sur le rôle de la robotique, de l'impression 3D et de l'intelligence artificielle dans le système de santé.
Le sénateur Kelvin Kenneth Ogilvie (président) occupe le fauteuil.
[Traduction]
Le président : Chers collègues, nous avons le quorum, alors je déclare la séance ouverte.
[Français]
Je vous souhaite la bienvenue au Comité sénatorial permanent des affaires sociales, des sciences et de la technologie.
[Traduction]
Je suis le sénateur Kelvin Ogilvie, de la Nouvelle-Écosse, et je préside le comité. Je vais demander à mes collègues de se présenter à tour de rôle, en commençant par ma droite.
[Français]
La sénatrice Mégie : Marie-Françoise Mégie, de Montréal, au Québec.
La sénatrice Seidman : Judith Seidman, de Montréal, au Québec.
[Traduction]
La sénatrice Stewart Olsen : Carolyn Stewart Olsen, du Nouveau-Brunswick.
La sénatrice Unger : Betty Unger, d'Edmonton, en Alberta.
Le sénateur McIntyre : Paul McIntyre, du Nouveau-Brunswick.
[Français]
La sénatrice Petitclerc : Chantal Petitclerc, sénatrice du Québec.
[Traduction]
La sénatrice Hartling : Nancy Hartling, du Nouveau-Brunswick.
Le sénateur Dean : Tony Dean, de l'Ontario.
[Français]
Le sénateur Cormier : René Cormier, du Nouveau-Brunswick.
[Traduction]
Le sénateur Eggleton : Art Eggleton, sénateur de Toronto, et vice-président du comité.
Le président : Merci beaucoup, chers collègues. Je vous rappelle que nous poursuivons notre étude sur le rôle de la robotique, de l'impression 3D et de l'intelligence artificielle dans le système de santé.
Nous sommes très heureux d'accueillir ce matin Mme AJung Moon, fondatrice de l'Open Roboethics Institute. Nous sommes ravis de vous avoir parmi nous. Nous sommes impatients d'entendre votre exposé, après quoi nous enchaînerons avec une période de questions. Madame Moon, la parole est à vous.
AJung Moon, fondatrice, Open Roboethics Institute : Monsieur le président, honorables sénateurs, je vous remercie de me donner cette occasion de prendre la parole aujourd'hui. Je suis la fondatrice et directrice de l'ORI, l'Open Roboethics Institute, qui est un laboratoire d'idées qui se spécialise dans les démarches intégrant les intervenants pour l'étude des conséquences éthiques, juridiques et sociales des technologies de la robotique. Étant donné mon expérience dans les domaines des relations entre les humains et les robots et de l'éthique en robotique, je vais me concentrer aujourd'hui sur les questions d'ordre éthique dans le contexte de la robotique interactive.
À l'instar de nombreux témoins qui ont comparu plus tôt devant le comité, je suis également d'avis que les technologies de la robotique et de l'intelligence artificielle dans le domaine de la santé peuvent constituer des solutions prometteuses aux problèmes du vieillissement de la population, de la pénurie des professionnels de la santé et de la demande grandissante de soins par les patients. N'empêche qu'il y a toute une série de défis uniques qui doivent être reconnus et relevés à mesure que nous faisons progresser notre économie axée sur l'innovation au Canada.
De nombreuses études ont démontré que les gens qui interagissent avec les robots ne les traitent souvent pas comme s'ils étaient une autre personne ni comme une machine distributrice ou une quelconque machine automatisée, mais plutôt comme une espèce à mi-chemin entre l'être humain et la machine, sauf que contrairement aux autres espèces biologiques, nous pouvons décider de la façon dont ils répondent au monde qui nous entoure, aux types de décisions qu'ils prennent et à l'incidence que ces décisions peuvent avoir sur nous.
Cela dit, dans la conception des robots, nous devons nous poser les questions suivantes : quelles décisions notre société est-elle prête à déléguer aux robots? Et qu'est-ce que devrait pouvoir faire un robot?
Dans le cadre d'une étude réalisée par l'ORI, nous avons découvert que des facteurs étonnants peuvent influencer les réponses à ces questions. Par exemple, comment un robot devrait-il agir si un patient alcoolique lui demandait de lui apporter une boisson alcoolisée malgré les consignes de son médecin?
Lorsque nous avons posé la question, dans le cas où le patient serait le propriétaire du robot, la majorité des répondants ont convenu que le robot devrait obéir. Par contre, si le robot appartenait à quelqu'un d'autre — par exemple, à un hôpital — à ce moment-là, la majorité des participants ont indiqué que le robot ne devrait pas apporter la boisson alcoolisée. De plus, la moitié de ces participants estimait que la propriété ne devrait pas avoir d'influence sur les décisions du robot, qui sont directement liées à l'autonomie du patient, contrairement à ce que pensait l'autre moitié des participants.
Par conséquent, les concepteurs n'en sont peut-être pas toujours conscients, mais les décisions que devrait prendre un robot sont assujetties à toutes sortes de conditions.
Comment un ingénieur peut-il arriver à prendre ces décisions? Idéalement, dans un premier temps, il devrait déterminer les valeurs qui sont importantes aux yeux des différents utilisateurs du produit technologique. Dans le cas où certaines valeurs entreraient en conflit, il devrait établir un ordre de priorité des valeurs, par exemple le respect de l'autonomie du patient et la protection des propriétaires contre toute responsabilité.
Par la suite, l'ingénieur devrait savoir comment intégrer ces décisions à la technologie et évaluer si le robot qu'il a conçu se comporte d'une manière qui est compatible avec l'ensemble de nos valeurs.
Ce que je vous ai présenté comme étant une série d'étapes idéales figure parmi les objectifs que se sont fixés les 30 experts internationaux, dont moi-même, dans le cadre de l'initiative de l'Institute of Electrical and Electronics Engineers, l'IEEE, en vue de concevoir des systèmes qui se comportent d'une manière qui correspond à nos valeurs. Sans directives pour encadrer ces processus, un ingénieur ne devrait pas entreprendre à lui seul ce type d'initiative.
Compte tenu de tous ces défis, comment une société peut-elle continuer d'innover au rythme auquel se développent les technologies intelligentes tout en s'assurant de s'engager dans la bonne voie?
Aujourd'hui, il y a plusieurs initiatives qui visent à élaborer des lignes directrices et des normes régissant le développement de ces technologies. La Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems de l'IEEE, l'initiative dont je viens de parler, est appuyée par une organisation de normalisation. Peut-être en raison de l'importance de tels travaux, cette initiative qui est née au sein d'un petit groupe d'universitaires au début de 2016 a pris de l'essor au point où un groupe de plus de 100 experts y consacrent maintenant de leur temps, et ce, partout dans le monde.
Dans le cas de ma propre organisation, l'ORI, nous avons animé la discussion sur les enjeux liés à l'éthique en robotique au cours des cinq dernières années, en vue de rendre notre contenu accessible au public ainsi qu'aux universitaires de tous les secteurs. J'estime que nos efforts ont permis de sensibiliser les gens à la complexité de l'éthique en robotique et d'entamer une discussion saine sur la façon dont ces questions pourraient être réglées par des solutions pratiques.
Une de ces solutions serait d'utiliser des moyens technologiques. Les chercheurs dans les domaines de l'intelligence artificielle et de l'apprentissage machine explorent actuellement des façons de concevoir des algorithmes pour qu'ils soient transparents et équitables.
Outre les efforts déployés par le milieu de la recherche, nous devrons mieux sensibiliser les concepteurs d'aujourd'hui afin qu'ils connaissent davantage les questions d'ordre éthique se rapportant à la robotique et à l'intelligence artificielle et sachent comment les régler dans le cadre de leur travail. Par exemple, les concepteurs peuvent décider de privilégier un type d'algorithme plutôt qu'un autre afin de créer un système qui est plus facile à expliquer et à interpréter.
De plus, les organisations peuvent exprimer clairement les valeurs qu'elles considèrent comme étant prioritaires. Par exemple, étant donné le manque de réglementation qui régit la période au cours de laquelle une personne âgée peut demeurer seule avec un robot sans la présence d'un soignant, les fabricants de tels robots peuvent décider d'énoncer explicitement leur position sur l'importance de l'interaction humaine pour les utilisateurs finaux qui sont des personnes âgées. Cela pourrait prendre la forme d'une philosophie ou d'une politique d'entreprise.
Favoriser de telles discussions au sein des organisations peut orienter non seulement les décisions stratégiques de l'entreprise, mais aussi faciliter la prise de décisions des équipes de conception.
Par ailleurs, si nous voulons que les valeurs canadiennes soient reflétées dans les produits autonomes que nous concevons ici au Canada, nous devons trouver des moyens concrets de faciliter la vie aux entreprises, particulièrement aux jeunes entreprises qui mettent au point ces technologies, afin qu'elles puissent prendre des décisions éclairées.
Il y a bien d'autres questions dont j'aimerais discuter avec vous aujourd'hui. J'estime que le Canada a toutes les qualités requises pour assumer un rôle de leadership dans le domaine de la robotique sans perdre de vue les enjeux éthiques. Au cours de la période de questions, j'espère que vous allez me demander comment l'ORI a été financé jusqu'ici et quels sont les principaux défis auxquels sont confrontés les nombreux pays qui font de la recherche dans le domaine de l'éthique en robotique. J'espère que vous vous intéresserez également à la façon de rendre la nouvelle vague d'éthique de la technologie plus abordable et plus accessible pour les concepteurs. Merci.
Le président : Merci beaucoup. Je cède maintenant la parole à mes collègues.
Le sénateur Eggleton : Merci beaucoup. C'était un excellent exposé axé sur les questions d'ordre éthique.
Je vais poser l'une des questions que vous espériez qu'on vous pose. Vous avez dit : « J'espère que vous me demanderez comment l'ORI a été financé jusqu'ici et quels sont les principaux défis auxquels sont confrontés les nombreux pays qui font de la recherche dans le domaine de l'éthique en robotique. »
Vous pourriez également répondre à cette question dans le contexte de la récente décision du gouvernement, qui a été exprimée dans le projet de loi C-43, d'accorder 125 millions de dollars à l'Institut canadien de recherches avancées pour l'élaboration d'une stratégie pancanadienne en matière d'intelligence artificielle. Selon vous, qu'est-ce que cette stratégie devrait contenir? Que devrait être le rôle de l'éthique et de la surveillance réglementaire dans cette stratégie? Vous pourriez peut-être répondre à ces questions en même temps, étant donné qu'elles concernent toutes deux l'aspect financier, n'est-ce pas?
Mme Moon : Je suppose que oui.
Je voulais vous expliquer comment l'ORI avait été financé, car je considère que cela fournit un contexte utile pour discuter de l'éthique en cette ère technologique.
L'ORI a été fondé il y a cinq ans et a largement été soutenu comme un organisme bénévole. Cela signifie que ma bourse d'études Vanier du CRSNG est la principale source de financement qui m'a permis de fonder l'ORI. J'ai reçu cette bourse non pas pour les projets liés à l'éthique que j'ai menés avec mes collègues au sein de l'ORI, mais plutôt pour mes travaux de recherche sur les interactions humain-robot qui n'ont rien à voir avec l'éthique.
L'une des raisons pour lesquelles notre travail a dû compter sur l'appui des bénévoles, c'est parce qu'il y a un écart entre ce que finance le CRSNG ou les organisations qui accordent habituellement des subventions scientifiques et les IRSC. Autrement dit, le travail de recherche dans le domaine de l'éthique n'est pas financé au même titre que les domaines des sciences et du génie. C'est peut-être davantage une question culturelle, mais il est plus difficile de présenter une demande de subvention lorsqu'il est question d'éthique, par rapport à l'innovation technologique, qui est beaucoup plus concrète.
Cela dit, j'estime que la décision du gouvernement d'investir dans la technologie de l'intelligence artificielle est très saine. Personnellement, je n'ai pas vu les décisions stratégiques sur la façon dont le financement allait être réparti parmi les différentes sous-catégories de l'intelligence artificielle, par exemple, comment allaient être subventionnées les petites organisations comme l'ORI qui ne développent pas la technologie comme telle, mais qui se penchent sur les aspects éthiques qui sont très pertinents et importants pour aller de l'avant avec les initiatives d'IA.
Le sénateur Eggleton : Vous avez évoqué l'initiative de l'IEEE, c'est-à-dire la Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems. J'ai récemment appris l'existence de cette organisation, mais j'en connais très peu à son sujet.
Vous dites que vous êtes parmi les 30 scientifiques qui œuvrent au sein de l'organisation. Pouvez-vous m'en dire davantage sur l'organisation? Si je ne me trompe pas, il s'agit d'une organisation internationale.
Mme Moon : Absolument. L'IEEE est une organisation de normalisation professionnelle qui représente un grand nombre d'ingénieurs internationaux. L'organisation a lancé cette initiative qui vise justement à répondre aux questions d'ordre éthique qui se posent en technologie. Elle compte une centaine de membres aujourd'hui, des experts de partout dans le monde.
Au sein de cette organisation, on retrouve de nombreux sous-comités, dont un qui s'occupe principalement de la protection de la vie privée, par exemple. Mon propre comité examine les moyens d'intégrer les valeurs à tous les systèmes technologiques. Ce comité regroupe environ 30 experts internationaux.
Le sénateur Eggleton : Vous pourriez peut-être nous fournir plus d'information à ce sujet, car cette organisation a une portée internationale qui pourrait nous être très utile.
Le président : Et tout ce que vous nous fournirez, veuillez le transmettre à notre greffière.
Mme Moon : Bien sûr.
Le président : Merci.
La sénatrice Stewart Olsen : Madame Moon, je m'intéresse particulièrement à l'application de la robotique dans les régions rurales. Ma province est une province rurale, et je sais qu'on va bientôt lancer des initiatives en matière de soins de santé pour les personnes âgées vivant en résidence.
A-t-on envisagé l'idée de créer un système d'unités de surveillance, c'est-à-dire des centres concentrés dans un petit rayon de soignants à domicile? On pourrait y surveiller, par exemple, cinq personnes dans leurs résidences, qui seraient équipées de robots ou de technologies robotiques. Serait-ce envisageable? Quelle serait l'incidence d'une telle initiative sur la protection de la vie privée? Est-ce que cela a déjà été fait?
Mme Moon : Juste pour préciser, lorsque vous parlez d'unités, vous voulez dire...
La sénatrice Stewart Olsen : Il s'agit simplement d'un endroit où se trouverait le soignant, qui aurait accès à tous les patients de la résidence, grâce aux moyens de communication des robots.
Mme Moon : Je crois que cette idée a fait l'objet de discussions. Cependant, j'ignore dans quelle mesure on l'a mise en œuvre, mais je sais que des études ont mis à l'essai l'idée d'avoir un robot à la maison pour surveiller et venir en aide à une personne en particulier. Il s'agissait davantage d'une étude contrôlée faisant intervenir une seule personne plutôt que de multiples robots contrôlés de l'autre côté par une autre personne, par exemple, comme ce dont vous avez parlé.
Chose certaine, nous devons réfléchir aux répercussions sur la protection de la vie privée. À ma connaissance, l'un des projets qui est en cours en ce moment concerne l'utilisation d'un robot qui surveille, au sein d'un établissement de soins, des adultes ou des enfants atteints de déficience cognitive ou mentale. En raison d'un manque de personnel, on envisage la possibilité d'avoir recours à la robotique.
Lorsque je me suis penchée sur les questions liées à la protection de la vie privée, j'ai réalisé que ces établissements de soins ont habituellement conclu des ententes relatives à la protection de la vie privée avec les tuteurs légaux. Cependant, cela ne devrait pas aller au-delà de la technologie qui existait au moment où cet accord a été signé, parce que les robots sont essentiellement des caméras sur roues; ils peuvent recueillir beaucoup d'information.
Un compromis ou peut-être un dilemme que nous avons, c'est que d'après nos recherches sur l'IHR, il est important de pouvoir reconnaître le client ou le patient en l'appelant par son nom pour recréer l'interaction naturelle qu'on aurait avec un soignant, par exemple, mais cela ne serait pas possible sans caméra. De toute façon, même s'il y a une caméra, il faut aussi que le robot soit doté d'une fonction de reconnaissance qui lui permettra de recueillir des données et de les relier à des données identifiables, comme le nom du patient.
Cela dit, nous sommes confrontés à un grand dilemme. Personnellement, je ne crois pas que notre travail soit assez évolué pour orienter les roboticiens, dans le cadre des processus de conception, en leur disant qu'il faut faire des compromis et qu'ils doivent tenir compte de certaines directives.
La sénatrice Stewart Olsen : Merci.
Le sénateur Dean : Je vous remercie pour votre exposé, et je vous félicite pour votre bourse, et surtout, pour ce que vous en avez fait.
Je ne m'inquiète pas trop du rythme auquel se développent la robotique et l'intelligence artificielle. Comme nous l'avons entendu au sein du comité, nous sommes probablement plus avancés que bon nombre d'entre nous auraient pu penser. Je m'inquiète plutôt de la capacité des éthiciens à suivre le rythme, c'est-à-dire la capacité des décideurs, des gouvernements et des acteurs politiques de suivre le rythme du développement de ces technologies. Il est bon de savoir que, comme dans d'autres domaines, le Canada peut être un leader dans le cadre d'une approche internationale.
Risquons-nous de nous retrouver avec un ensemble disparate de codes déontologiques qui proviennent des secteurs privé, public ou commercial, et aux échelons international, national ou même infranational, dans le cadre desquels les approches liées à l'éthique dans ce domaine sont soumises à la concurrence, à des différences ou à des conflits? Pouvons-nous éviter cette situation en mettant au point un cadre de gouvernance qui pourrait en quelque sorte simplifier les choses et offrir aux personnes qui travaillent dans ce domaine la capacité de suivre les progrès en temps réel dans la mesure du possible et au moins avoir un aperçu de la technologie en question, au lieu de la perdre de vue complètement et d'être trop loin derrière? Est-ce une question raisonnable?
Mme Moon : Oui. Je comprends la préoccupation selon laquelle les éthiciens ou les responsables des politiques devraient constamment jouer au rattrapage, en quelque sorte. Je crois que c'est ce que vous tentez d'exprimer.
Le sénateur Dean : Oui.
Mme Moon : Puisque la technologie progresse de façon fulgurante, on pourrait avoir l'impression qu'on est toujours en train de tenter de la rattraper. Toutefois, on peut également faire valoir qu'il faut sensibiliser les concepteurs, afin qu'en cas d'écart entre leurs décisions et les règlements ou la structure de gouvernance appropriée, ils soient toujours en mesure de prendre davantage de décisions positives en matière de conception. C'est une notion très importante, mais je crois également qu'il est sain de discuter d'une approche proactive à l'égard d'une structure de gouvernance qui peut s'adapter rapidement.
L'une des choses que je découvre dans le cadre de nos travaux à ORI, surtout plus récemment avec les industries, c'est que chaque jour, chaque produit examiné sera différent, car les parties intéressées sont différentes, tout comme leurs valeurs. La discussion sera également différente lorsqu'on parlera du même produit dans différentes villes. Souhaitons-nous adapter la façon d'aborder la question de l'éthique dans chaque scénario? Est-ce même réalisable? Il n'y a pas encore de réponse à cette question.
Nous apprenons entre autres qu'en nous penchant sur un cas précis, nous sommes en mesure d'extrapoler des enjeux d'ordre éthique qui pourraient se présenter dans de nombreuses différentes études de cas, ce qui nous permet de prendre un règlement ou de mettre au point une structure de gouvernance fondée sur ces enjeux.
Le sénateur Dean : Merci.
La sénatrice Unger : Je vous remercie beaucoup de votre exposé. Mes questions sont en quelque sorte des préoccupations. Dans ce meilleur des mondes, les gens qui travaillent dans votre domaine seront-ils en mesure de contrôler ces robots? Je me demande s'il est possible que des robots soient intoxiqués. Les échantillons que vous avez fournis étaient intéressants. Les spécialistes de votre domaine sont-ils préoccupés par la notion de robots malveillants, comme nous sommes nombreux à l'avoir vue dans certains films, j'en suis sûre?
Le président : Aux fins d'éclaircissements, je ne crois pas que le robot était intoxiqué. Il servait l'alcool.
La sénatrice Unger : Le pourrait-il?
Mme Moon : L'un des comités qui font partie de l'initiative de l'IEEE que j'ai mentionnée parle en fait de l'IA générale, c'est-à-dire un niveau d'IA plus élevé qui n'a pas encore été atteint aujourd'hui, mais qui intéresse le milieu de la recherche. C'est peut-être ce que vous essayez de dire.
Étant donné que je travaille surtout dans le domaine de la conception, tant et aussi longtemps que nous exerçons un bon contrôle ou que nous prenons des décisions consciencieuses en matière de conception, je ne crois pas que cela devrait faire partie de nos préoccupations.
On discute de l'éthique des systèmes d'armes létales autonomes. Je sais qu'il s'agit d'une préoccupation, car étant donné la nature de cette technologie, nous parlons de décisions qui sont prises sans intervention humaine pendant une période assez longue. Nous pourrions hypothétiquement concevoir ces systèmes et sur le plan pratique, nous pourrions concevoir des systèmes qui ne sont pas aussi intelligents et qui sont en mesure de prendre ces décisions sans notre intervention.
Toutefois, des êtres humains intelligents prendraient-ils les mêmes décisions? Formerions-nous nos ingénieurs pour qu'ils prennent ces décisions? Je crois que c'est une meilleure question à poser lorsqu'il s'agit du caractère pratique des enjeux que nous devrions traiter.
Hypothétiquement, je crois que c'est possible. Sur le plan pratique, si nous parlons de machines « stupides », nous pouvons toujours faire des robots qui prennent de mauvaises décisions en tout temps. Ce serait la chose la plus facile à faire.
Le sénateur McIntyre : Merci, madame Moon, de votre excellent exposé. Manifestement, vous connaissez très bien le rôle des nouvelles technologies dans notre système de soins de santé.
Ma question concerne la surveillance éthique. À votre avis, nos associations de professionnels de la santé, par exemple l'Association médicale canadienne et l'Association des infirmières et infirmiers du Canada, peuvent-elles mener efficacement une surveillance éthique dans le domaine de la robotique et de l'intelligence artificielle? Sinon, quel cadre proposeriez-vous pour cette surveillance?
Mme Moon : J'aimerais d'abord répondre à la dernière question. La robotique et l'IA sont des outils qui peuvent avoir de nombreuses utilisations différentes. Par exemple, un robot que je conçois aujourd'hui pourrait être utilisé ou modifié pour différentes applications en matière de soins de santé ou on pourrait le modifier pour qu'il remplisse d'autres fonctions. Un grand nombre des éléments utilisés dans cette technologie pourrait servir de nombreuses autres façons.
Pour cette raison, je pense qu'il est peut-être plus approprié de considérer l'ensemble de la robotique et de l'IA, la technologie elle-même et la surveillance éthique à ce niveau plutôt que dans le contexte des soins de santé. Je crois qu'il sera nécessaire d'envisager d'exercer une surveillance éthique dans certains domaines d'application précis, mais je crois aussi qu'il faut examiner la technologie dans son ensemble plutôt que de s'en tenir à la robotique dans le domaine des soins de santé, et c'est en partie parce que si nous tenions seulement compte d'une application précise, nous pourrions finir par répéter de nombreux travaux dans différents domaines et ne pas tirer de leçons d'autres travaux.
Le sénateur McIntyre : Y a-t-il un chevauchement entre des éléments de la robotique et de l'intelligence artificielle? Comment ces deux domaines sont-ils interreliés?
Mme Moon : On peut notamment considérer que les robots sont la réalisation matérielle de l'IA. Le véhicule sans conducteur est un bon exemple, car il s'agit d'un véhicule concret dans lequel vous pouvez prendre place, mais qui contient également une grande partie d'intelligence artificielle et des techniques précises d'apprentissage machine, par exemple. Toutefois, on considère que le véhicule sans conducteur comme tel est un robot.
Si nous imaginons que les véhicules sans conducteur sont en mesure de communiquer entre eux et d'apprendre des données des autres, cela représenterait un autre niveau d'intelligence artificielle qu'un robot particulier n'atteint pas, mais qu'une série de robots interreliés par un cadre logiciel peut atteindre, un peu comme un système d'infonuagique. Ils sont très interreliés dans cette optique.
[Français]
Le sénateur Cormier : Je vais vous poser ma question en français. Je vous remercie de votre présentation très éloquente et éclairante.
J'ai été captivé par la notion des valeurs canadiennes, soit la façon d'intégrer les valeurs canadiennes au domaine de la robotique. En fait, de nombreuses questions me viennent en tête, notamment en ce qui concerne la formation à la fois des concepteurs, des fabricants et des utilisateurs. Comment les valeurs canadiennes s'inscrivent-elles dans ce processus? Qu'est-ce que cela représente exactement pour ces différents corps de métier?
[Traduction]
Mme Moon : Je peux peut-être vous donner un exemple. Je crois que les préjugés liés au genre ou à la race iraient à l'encontre des valeurs canadiennes. C'est le type de préjugé qui pourrait s'infiltrer dans nos technologies si nous ne le ciblons pas. Dans le milieu de la recherche, on a beaucoup discuté du fait que de nombreuses données provenaient davantage de participants masculins ou représentaient davantage la population masculine, ce qui signifie qu'elles ne représentaient pas également les hommes et les femmes.
En ce qui concerne le préjugé fondé sur la race, on peut citer l'exemple d'un distributeur de savon dont les capteurs spécialisés fournissent une bonne quantité de savon lorsqu'ils détectent les mains d'une personne à la peau plus claire, mais qui ne fonctionnent pas aussi bien dans le cas d'une personne à la peau plus foncée, car ils n'ont pas été testés rigoureusement pour les différentes races.
Cela vous donne-t-il une bonne idée du type de dilemme?
[Français]
Le sénateur Cormier : Oui. Comment ces différents concepts peuvent-ils s'inscrire dans la documentation?
[Traduction]
Mme Moon : L'une des façons d'y parvenir a déjà été abordée dans le milieu de la recherche, car on se demande s'il est possible de cerner ces types de préjugés à l'aide de la technologie. On se demande si on peut les quantifier en vue d'apprendre à les éliminer, et on cherche des solutions technologiques qui visent ces préjugés dans des ensembles de données. Ces travaux sont donc en cours. On ne fait que commencer à considérer les systèmes d'apprentissage machine de cette façon, mais c'est une initiative très prometteuse.
Outre la perspective de la solution technologique, l'une des façons de gérer cette situation consiste à rendre ces types de valeurs explicites. En effet, nous ne formons pas nécessairement nos ingénieurs à chercher ou à prévoir les préjugés fondés sur le genre dans les systèmes de conception, car nous connaissons beaucoup mieux la notion d'éthique professionnelle. Dans ce contexte, nous parlons de valeurs, mais elles ne sont pas intégrées à la conception. Mais il est très important de les intégrer aux décisions en matière de conception et de se rendre compte qu'elles existent, car autrement, nous mettrons au point des systèmes qui auront systématiquement des effets sur nous et qui favoriseront systématiquement une catégorie ou une autre de façon incontrôlable ou non souhaitée.
Le président : L'exemple précis de la reconnaissance de la main est fondé sur un algorithme d'apprentissage. Il me semble qu'il serait facile d'éliminer le préjugé dans ce cas, car les connaissances en jeu ne sont pas si nombreuses. En effet, il s'agit simplement de reconnaître une main dans certaines circonstances. J'ai été étonné d'apprendre que ces types d'enjeux, c'est-à-dire l'exemple que vous avez utilisé, font l'objet de discussions dans le domaine public, car la reconnaissance d'une main devient une question d'apprentissage approfondi. Le nombre de mains qu'on peut apprendre est relativement peu élevé lorsqu'il s'agit d'apprendre cette structure.
J'aimerais donc vous demander si certains de ces enjeux sont relativement faciles à résoudre et s'il est facile d'éliminer ce cas de préjugé ethnique.
Mme Moon : L'exemple de la main que j'ai donné est assez simple, et il est facile à analyser.
Le président : C'est la raison pour laquelle il est également dangereux d'utiliser des exemples de problèmes qui peuvent être facilement résolus et de les présenter comme étant des problèmes graves.
Mme Moon : En effet, mais je crois que ces exemples soulignent des problèmes très graves, par exemple le type d'expérience que les utilisateurs auront avec ces robots. Par exemple, les systèmes de reconnaissance faciale présentent également le même problème. On a documenté des exemples de préjugé racial dans lesquels les visages ne sont pas reconnus pour certaines races. Si nous construisons systématiquement ces types d'appareils, mon expérience de travail avec un robot sera très différente de la vôtre, par exemple. Ne souhaitons-nous pas avoir une directive qui énonce explicitement que si l'ensemble des données n'englobe pas la diversité qu'il est censé couvrir, cela posera un problème?
Le président : Je conviens tout à fait que nous devrions avoir cela, mais ce problème précis n'est-il pas facile à résoudre?
Je suis tout à fait d'accord. Il faut éliminer les préjugés, mais il me semble qu'en ce qui concerne un exemple d'apprentissage approfondi, il est relativement facile d'enseigner au robot à reconnaître la diversité. Est-ce le cas?
Mme Moon : Il pourrait être très facile de résoudre ce problème dans l'exemple de la main, mais nous devrions parler du fait que nous avons reconnu qu'il s'agissait d'un problème. Si nous ne reconnaissons même pas qu'il existe un problème, nous ne le résoudrons pas.
Le président : Je suis tout à fait d'accord, mais dans les exemples qui nous ont été présentés, il me semble que l'enjeu est le point que vous avez fait valoir, c'est-à-dire que nous devrions convenir d'éliminer les préjugés lorsqu'ils apparaissent et que nous devrions utiliser des exemples qui illustrent comment y parvenir, et puisque la reconnaissance est une question d'apprentissage, nous devrions être en mesure de le faire.
J'admets que lorsqu'on commence à prendre des mesures, la situation devient plus complexe. Mais je vais m'arrêter ici. J'aimerais m'en tenir à ce dont nous parlons aujourd'hui et convenir que nous devons éliminer les préjugés, et il me semble qu'il faut donner aux programmeurs la directive de les éliminer.
[Français]
La sénatrice Mégie : J'ai un commentaire, qui sera suivi d'une question. Si je pense à tous les intervenants qui ont comparu à notre comité, à un certain moment donné, j'étais inquiète. Je constatais que l'innovation progressait rapidement et qu'il n'y avait rien sur le plan de l'éthique pour encadrer tout cela. Donc, je suis heureuse aujourd'hui d'apprendre qu'il y a cet institut ORI, et je vous remercie beaucoup de votre travail. Je sais que, dans ce travail, il n'y a pas beaucoup d'investissements qui sont faits pour financer et appuyer vos activités en raison du sujet de l'éthique.
Le sénateur McIntyre a parlé des associations professionnelles, mais je vais aller un peu à côté. Dans chaque centre, il y a un comité d'éthique de la recherche qui ne se consacre pas uniquement au domaine de la santé. Comme il y a interaction entre les robots et la personne, il y a même parfois invasion de la personne par le robot qui lui donne ses médicaments et qui pourrait même lui administrer des soins physiques. Pour cette raison, il faudrait alors un comité d'éthique de la recherche. Est-ce que votre institut consulte ces comités lorsqu'il traite de produits novateurs?
[Traduction]
Mme Moon : Désolée, j'essayais de suivre l'interprète. Pourriez-vous répéter la dernière partie de votre question?
[Français]
La sénatrice Mégie : L'ORI fait-il appel à un comité d'éthique de la recherche?
[Traduction]
Mme Moon : ORI n'agit pas à titre de comité sur l'éthique de la recherche pour une autre entité. Par contre, nous avons une filiale qui envisage de mener des évaluations éthiques pour certaines entreprises. Toutefois, je sais qu'il y a des comités d'éthique de la recherche grâce à mes propres études, car j'ai dû mener des études sur les interactions entre des humains et des robots dans le cadre desquelles des humains devaient se trouver dans des salles d'expérimentation, par exemple.
Je ne sais pas si je réponds directement à votre question, mais je crois que les comités d'éthique de la recherche sont très utiles pour veiller à ce que les chercheurs sachent ce qu'ils doivent surveiller et comment mener des recherches de manière éthique, mais nous n'avons pas nécessairement de comités d'éthique de la recherche qui peuvent aider, par exemple, des entreprises en démarrage qui sont très enthousiastes à l'idée de livrer ces robots et ces technologies d'IA liés aux soins de santé. En effet, il serait très dispendieux, pour une entreprise en démarrage, de mettre sur pied un comité d'éthique, car cette entreprise souhaite simplement fabriquer des appareils qui fonctionnent et les privatiser à l'aide de son financement limité.
L'une des solutions efficaces pourrait être de faciliter l'accès à ces entreprises en démarrage à ce type particulier de processus ou à l'évaluation éthique de ces robots et de ces systèmes d'IA.
Cela répond-il à votre question? Je tentais de suivre.
[Français]
La sénatrice Mégie : Même s'ils ne peuvent pas se le payer par manque de moyens financiers, lorsqu'ils veulent mettre à l'essai le produit dans un milieu donné, je crois qu'ils peuvent s'adresser au comité d'éthique de la recherche de ce milieu. Je ne crois pas qu'il faille payer pour obtenir ce service, parce que le conseil d'éthique de la recherche existe justement pour éviter les dérapages et les mauvaises utilisations du produit au moment où il sera mis en oeuvre. Bref, ils n'ont pas besoin d'argent, et je crois que les comités d'éthique de la recherche existent, du moins dans les grandes villes, dans les grands hôpitaux, dans les grandes régions. Ils pourraient peut-être faire appel à ces comités sans débourser d'argent.
[Traduction]
Mme Moon : Je ne connais pas de comités d'éthique de la recherche qui existent pour cette raison précise, mais selon mon expérience avec le comité d'éthique de la recherche de l'Université de la Colombie-Britannique, je sais que son évaluation éthique, par exemple, de mon étude contrôlée est très limitée, et qu'elle se limite également à ce cadre expérimental. Toutefois, nous parlons de systèmes de robotique qui seront installés dans des résidences privées ou dans des établissements de soins, et les types d'enjeux auxquels devront réfléchir les membres d'un comité seront très différents des façons structurées dont ils évaluent les considérations éthiques d'une étude particulière. En effet, il y a des défis liés au contenu et à la façon de procéder.
[Français]
La sénatrice Mégie : Cela me rassure un peu moins, mais je vous remercie tout de même de votre réponse.
[Traduction]
La sénatrice Hartling : Je vous remercie d'être ici aujourd'hui. Cette conversation est très intéressante.
J'aimerais remercier le sénateur Cormier d'avoir posé la question sur les valeurs. J'y réfléchissais justement, et je vous remercie de votre bon travail.
Je suis heureuse de voir qu'une jeune femme comme vous participe aux discussions sur les préjugés fondés sur le genre, sur la diversité, et cetera. Plus il y aura de jeunes femmes qui participeront à ces enjeux, plus ils seront à l'avant- plan.
Ma question concerne l'avenir et les problèmes sociaux qui pourraient être liés à l'IA et à la robotique. Pourriez- vous nous parler des enjeux que, selon vous, nous découvrirons et auxquels nous participerons?
Mme Moon : Il y en a tellement.
La sénatrice Hartling : Juste quelques-uns.
Mme Moon : Il y a quelques semaines, j'étais en ville pour la discussion d'ouverture du caucus sur un sujet similaire et le sujet de l'emploi était l'un des enjeux principaux qui ont fait l'objet d'une discussion. En effet, on se demandait comment aborder l'idée selon laquelle des robots remplaceront certains emplois. Mettons-nous au point ces robots plutôt que des robots qui aident les gens?
C'est certainement un gros défi. Par exemple, une évaluation éthique devrait être en mesure de soulever ce point avec un promoteur, afin que nous puissions trouver une solution.
Un autre point concerne les documents sur les lignes directrices que j'ai mentionnés. En effet, nous devrions parler de nombreux différents aspects de ces documents. Par exemple, la notion traditionnelle de la vie privée ne semble pas convenir aux technologies de robotique. Il faudrait donc examiner ce point particulier et élaborer d'autres lignes directrices.
Nous ne parlons pas nécessairement de la sécurité physique, mais nous parlons entre autres de la sécurité physique lorsqu'il est question des robots interactifs. La manière dont un certain robot peut se déplacer et influer sur vous et votre comportement est encore un aspect que les chercheurs essaient de comprendre, et nous développons aussi des produits que nous déployons dans le monde.
Il est difficile d'en fait trouver la manière de concilier l'incidence que nous avons sur les divers utilisateurs et les normes sociales connexes relativement au traitement des robots.
La sénatrice Hartling : Vous soulevez de nombreux points qui donnent matière à réflexion.
Dans le milieu de la robotique, y a-t-il autant d'hommes que de femmes?
Mme Moon : Je ne dirais pas qu'il y a autant de roboticiennes que de roboticiens. Il ne fait aucun doute qu'il y a moins de roboticiennes. Il serait utile d'avoir un meilleur équilibre à ce sujet.
La sénatrice Petitclerc : Pouvez-vous me donner concrètement le processus étape par étape pour en arriver à un produit final, à l'appareil? Vous avez les concepteurs, puis vous avez un groupe de réflexion composé de spécialistes de l'éthique. J'essaie de comprendre. Si une entreprise crée un appareil, doit-elle le soumettre à un comité d'éthique ou le fait-elle seulement de manière volontaire? Doit-elle faire appel à vos services? De nombreuses options s'offrent-elles à cette entreprise?
Je pense à un appareil qui sera utilisé dans le système de santé. Qui est-ce qui réglemente tout cela? Il est même possible que les décisions éthiques varient d'un groupe à l'autre. J'essaie de comprendre un peu l'histoire derrière tout cela. Comment cela se passe-t-il actuellement?
Par ailleurs, selon vous, cela devrait-il être organisé ou qui est-ce qui devrait superviser l'éthique de l'éthique?
Mme Moon : Pour ce qui est de la première partie de votre question, nous n'avons aucun organisme de réglementation qui force une entreprise à se soumettre à un processus d'éthique, ce qui est un problème, et nous essayons d'offrir une solution en la matière. Compte tenu de l'absence d'une telle réglementation, pouvons-nous rendre plus accessibles les évaluations éthiques pour les entreprises qui le souhaitent? C'est encore plus vrai lorsque les entreprises peuvent choisir de le faire.
Cependant, même aujourd'hui, si une entreprise choisit de se soumettre à une évaluation éthique, il lui est très difficile de trouver un groupe de spécialistes en mesure d'offrir un tel service. Nous en avons une poignée qui ont suivi des formations en philosophie ou en génie, par exemple. Voilà pourquoi à ORI nous essayons de monter un projet en vue d'élaborer un cadre précis et suffisamment systémique pour fournir une évaluation éthique à une entreprise donnée et d'ensuite être en mesure de le faire pour d'autres. Si cela fonctionne, nous pourrons en fait rendre ce cadre accessible aux autres et leur suggérer de le faire aussi.
Actuellement, nous n'avons pas un cadre d'évaluation qui fait l'unanimité. Par conséquent, il est difficile de forcer un autre à s'y soumettre.
La sénatrice Petitclerc : Donc, êtes-vous en train de dire que l'éthique de certains appareils actuellement utilisés par des Canadiens n'a pas fait l'objet d'évaluations? Êtes-vous en train de nous dire que c'est possible?
Mme Moon : C'est possible. Oui.
La sénatrice Petitclerc : C'est intéressant. Devons-nous nous en inquiéter?
Mme Moon : Je dirais que oui. Le pire scénario serait une entreprise qui commercialiserait un produit dans un but positif sans en connaître les conséquences sur le plan de l'éthique.
La sénatrice Petitclerc : Merci.
Le sénateur Eggleton : Nous avons parlé des possibilités concernant le cadre réglementaire, des comités ethniques, de certains enjeux sociaux, et cetera. Nous pouvons également soutenir que le développement de certains systèmes et de certaines technologies devrait être interdit. Certaines technologies liées à l'intelligence artificielle ou aux systèmes autonomes sont potentiellement si dommageables pour les humains et l'ensemble de l'humanité qu'elles ne devraient peut-être jamais être mises au point, fabriquées et utilisées. Nous pouvons dresser un certain parallèle avec les interdictions relatives aux manipulations génétiques sur les humains, qu'envisagent certains pays, ou même l'interdiction des mines antipersonnel qui a été rendue possible grâce au traité d'Ottawa. Il s'agit évidemment d'une vieille technologie, mais j'en parle parce qu'il s'agit d'un cas où la fabrication et l'utilisation d'une technologie ont pu se rendre très loin avant que les gouvernements finissent par rattraper leur retard et affirmer qu'il ne faut pas le faire. Nous essayons encore de nous débarrasser de ces mines antipersonnel. Lorsqu'elles sont enfouies dans le sol, elles sont un danger pour tout le monde.
Devrions-nous interdire au Canada ou partout dans le monde certains systèmes et certaines technologies? Nous devrions peut-être donner l'exemple en la matière comme nous l'avons fait dans le cas des mines antipersonnel.
Le président : En ce qui a trait au système de santé.
Le sénateur Eggleton : Eh bien, d'accord. Je pose ma question dans les deux sens.
Le président : Si vous pouvez utiliser un exemple général pour illustrer vos propos, c'est parfait, mais nous ne nous penchons pas sur l'ensemble des enjeux.
Mme Moon : Pour ce qui est d'une interdiction complète, je n'en suis pas certaine. J'essaie de réfléchir à la question en vous répondant.
La présence d'un système qui peut manipuler vos dépenses de consommation, par exemple, ou vos comportements, en particulier pour les populations vulnérables, est une idée très dangereuse. Prenons l'exemple d'un robot qui prodigue des soins et qui est censé aider une personne pour assurer son maintien à domicile, mais ce robot a également des stratégies de commercialisation en vue d'inciter cette personne à acheter certains produits. Voilà un exemple de technologies que je crois que nous devrions absolument réglementer.
Le sénateur Eggleton : Si une machine exerçait une pression sur une personne ou la manipulait psychologiquement, considériez-vous cela comme une technologie que nous devrions interdire ou réglementer?
Mme Moon : Avec certaines réserves. La présence physique d'un robot dans une pièce peut avoir de bien des manières différentes des répercussions sur vous. Il nous est difficile d'éviter qu'un robot ait un effet psychologique sur les utilisateurs, mais un type de robots qui vise à manipuler les utilisateurs finaux, en particulier les populations vulnérables, serait un exemple d'une technologie dangereuse.
Le sénateur Eggleton : Avez-vous une technologie en tête à laquelle nous devrions prêter attention, en particulier dans le domaine de la santé?
Le président : Je crois qu'elle nous a donné l'exemple d'un appareil qui est intentionnellement doté d'une fonction additionnelle visant à essayer de manipuler des utilisateurs et de les orienter dans une certaine direction.
Le sénateur Eggleton : J'essaie seulement d'avoir un peu plus de détails.
Le président : Lorsque vous allez chez le médecin et que vous attendez une éternité pour avoir la chance d'être vu, vous êtes bombardés de messages électroniques et d'images pour vous encourager à utiliser certains produits pour les yeux, des lunettes, et cetera. Je présume que vous ferez la différence entre un endroit public et une publicité normale et une situation où un certain contrôle est exercé sur une personne.
Mme Moon : Si vous me permettez de vous donner un exemple extrême, nous explorons certaines technologies en robotique en ce qui concerne l'interaction cerveau-machine ou des technologies qui peuvent traduire les ondes cérébrales. Une version très invasive de ces technologies se connectera physiquement à votre cerveau. Un système un peu plus poussé pourrait en fait envoyer de l'information à votre cerveau au lieu d'uniquement le lire, et c'est également dangereux. Si nous combinons cela au système robotique, ce serait très dangereux.
Le sénateur Eggleton : C'est un bon exemple. Merci.
La sénatrice Unger : En ce qui concerne votre dernier point, un appareil peut-il avoir un programme qui peut influer sur le cerveau? Si une personne âgée a un robot à la maison, ce robot pourrait-il être programmé en fonction de la fin de vie de cet utilisateur? Ce serait évidemment une technologie dangereuse ou inappropriée.
J'aimerais également savoir si le Canada fait bonne figure dans le monde par rapport à ces technologies.
Mme Moon : Je crois que votre première question visait à savoir si l'utilisation de systèmes robotiques dans le cadre du soutien en fin de vie serait une technologie dangereuse.
La sénatrice Unger : Oui.
Mme Moon : Possiblement. Un exemple frappant de cette idée est illustré par une œuvre d'art du MIT. Il s'agit d'un robot qui vous tient compagnie lorsque vous êtes sur le point de mourir. Cela se voulait une œuvre qui se fondait sur un scénario, mais le robot vous caresserait le bras lorsque vous êtes sur le point de mourir et vous dirait que vous avez eu une bonne vie. En tant que société, sommes-nous prêts à laisser un robot s'occuper de ce moment très spécial d'une vie? Cette question se fonde sur des valeurs, et la société devrait en débattre; il ne s'agit pas vraiment d'une décision technique, à savoir si c'est la manière la plus efficace d'aider une personne à mourir.
Je m'excuse, mais j'ai oublié la deuxième question.
La sénatrice Unger : Le Canada fait-il bonne figure dans le monde dans ce domaine?
Mme Moon : Je ne suis pas certaine du classement quantitatif dans le milieu de la robotique en général. Par contre, en ce qui concerne l'apprentissage-machine ou l'intelligence artificielle, en particulier l'apprentissage en profondeur, je crois que le Canada fait très bonne figure et est un chef de file dans ce domaine grâce aux chercheurs canadiens spécialisés.
Le sénateur Dean : Au sujet de votre exemple d'un robot qui me caresserait le bras, cela dépendrait probablement depuis quand je connais le robot, mais c'est un très bon point.
J'aimerais revenir à la question de l'éthique et de la gouvernance, parce que bon nombre d'entre nous l'ont abordée de diverses manières, et je crois que nous avons de la difficulté à bien saisir le tout en raison de sa nature nébuleuse.
Vous nous avez aidés plus tôt en parlant d'une démarche axée sur les valeurs; vous avez dit que, si nous tenons compte de nos valeurs en tant que société et que nous utilisons une démarche axée sur les valeurs en ce qui a trait à certains secteurs ou à certaines technologies, nous pourrons trouver des dénominateurs communs et des questions communes à l'ensemble et partir de là. À mon avis, c'est une démarche très raisonnable. Cela permet d'y aller progressivement; cela donne l'impression que c'est possible. Bref, je crois que c'est formidable.
Je crois toujours qu'il s'agit probablement d'un élément d'un tout qui en comporte probablement plusieurs. Nos discussions d'aujourd'hui et nos précédentes discussions me permettent de conclure que nous aboutirons probablement à un ensemble disparate. Avec un peu de chance, ce sera par choix plutôt que par défaut.
En ce qui a trait au plan en la matière, comme le sénateur Eggleton l'a mentionné, je me dis que nous devrons laisser tomber certains éléments, même dans le domaine médical ou la profession médicale. Vous voulez renforcer les valeurs fondamentales, et ces enjeux sont importants. ORI collabore sur la scène internationale avec l'IEEE, et c'est évidemment important.
Comme je m'y attendais, les entreprises ont adopté leurs propres démarches à cet égard. Certaines entreprises ont probablement de bonnes intentions et cherchent à obtenir de manière proactive les avis d'éthiciens, alors que d'autres entreprises l'évitent de manière proactive et se concentrent sur les résultats et la proposition de valeur purement économique. Le gouvernement aura un rôle à jouer à certains égards en vue d'encadrer le tout dans les lois et les règlements, et les associations médicales et de professionnels auront également un rôle à jouer dans le milieu.
Y a-t-il quelque chose d'autre que j'ai oublié concernant ce plan en devenir et que nous devrions épingler sur nos écrans radars? Premièrement, croyez-vous que j'ai raison par rapport à tous ces aspects? Deuxièmement, y a-t-il d'autres éléments en marge que nous verrons apparaître sur nos écrans radars en ce qui concerne la panoplie d'approches relatives aux questions éthiques?
Mme Moon : Merci d'avoir résumé bon nombre d'approches différentes.
Il y a déjà certaines utilisations pour lesquelles l'adoption de règlements a vraiment le vent dans les voiles. Ce sont donc vraiment davantage des approches descendantes. Par exemple, les véhicules autonomes sont une industrie où des permis pour mettre à l'essai des véhicules ont déjà été délivrés. Je crois que nous continuerons de voir des règlements être adoptés pour des utilisations précises que nous devrons gérer à plus grande échelle, si nous pouvons y arriver, en vue d'assurer une certaine surveillance.
Toutefois, je crois que des approches descendantes et des approches ascendantes, dans une certaine mesure, sont absolument essentielles, parce qu'une entreprise en démarrage qui essaie de concevoir un robot fonctionnel sera peut-être confrontée à la question de la protection des renseignements personnels dans le cadre de ses exercices de conception, et cela la prendra peut-être par surprise : « Oh, je dois maintenant me soucier de la protection des renseignements personnels. Que dois-je faire à ce propos? » Il y a peu d'informations disponibles pour l'aider à répondre à ses questions.
Si nous pouvons discuter des manières de produire du contenu qui est facilement accessible et si le gouvernement canadien souhaite jouer un rôle de premier plan à cet égard pendant que nous établissons le programme d'innovation en ce qui concerne l'intelligence artificielle et la robotique, je crois que ce serait très utile pour la suite des choses.
Le sénateur Dean : Merci.
Le sénateur McIntyre : Comme le sénateur Dean l'a mentionné, nous avons tous abordé la question d'un point de vue différent, et c'est aussi ce que je fais. Ma question porte sur l'utilisation d'une autre éthique. Permettez-moi de vous l'expliquer.
Selon ce que je comprends des nouvelles technologies, soit la robotique, l'intelligence artificielle et l'impression 3D, elles ne sont pas utilisées qu'en santé. Elles le sont également dans d'autres secteurs, comme les transports, la sécurité, le secteur manufacturier, et cetera. Selon vous, l'utilisation de ces technologies dans le domaine de la santé devrait-elle être perçue selon une éthique autre que celle qui s'applique à ces autres industries? Dans la négative, pourquoi pas?
Mme Moon : Je crois qu'une fusion des diverses approches serait nécessaire. Par exemple, un véhicule autonome pourrait en fait devenir l'un des appareils fonctionnels les plus utilisés par les personnes âgées. Devrions-nous nous pencher sur l'éthique des véhicules autonomes du point de vue des soins de santé? Je crois qu'il y aura essentiellement une fusion concernant la manière dont les personnes âgées devraient aborder la question, la façon dont nous devrions penser aux véhicules autonomes utilisés pour les personnes âgées et le point de vue de Transports Canada concernant les questions éthiques que posent les véhicules autonomes. Je crois que nous devons tenir compte des deux éléments.
Le président : Merci beaucoup. Je crois que nous avons eu des discussions très intéressantes. Nous avons évidemment un regard tourné loin vers l'avenir, et l'expérience nous a notamment appris qu'il est important d'étudier la réalité lorsque nous nous penchons sur l'évolution de ces enjeux.
Le sénateur Eggleton a utilisé un exemple lié à la biotechnologie, et je crois que nous pouvons en apprendre beaucoup de la manière dont le milieu de la recherche en biotechnologie et le milieu des utilisations ont géré la question. Nous avons été aux prises avec les mêmes problèmes à l'époque, et la communauté scientifique a collaboré pour déterminer comment nous devrions utiliser ces technologies. Les gouvernements partout dans le monde ont en fait adopté les recommandations qui sont principalement ressorties de ces consultations initiales et qui sont encore valides aujourd'hui en ce qui concerne la manipulation génétique, en particulier sur des systèmes vivants, ainsi que le contrôle des recherches en la matière. Même si la robotique est un aspect légèrement différent à encadrer, je crois que les concepts ne sont pas du tout différents. Je suis d'avis que vous nous avez forcés aujourd'hui à examiner ces enjeux d'un point de vue plus vaste.
J'ai été tenté de reprendre votre exemple du robot qui donne de l'alcool à un patient qui ne doit pas en consommer, mais ce n'est pas possible pour l'instant. Des robots indépendants pourront un jour aller chercher de leur propre chef un objet sur les tablettes et faire une telle chose. Nous pouvons contrôler de tels agissements jusqu'à présent, mais nous devrons un jour tenir compte de ces enjeux au moment de déterminer ce que nous devrions laisser circuler librement dans la société.
Nous avons eu des discussions très fructueuses. Je vous en remercie énormément.
(La séance est levée.)