Vue d’ensemble

Notre équipe a entrepris de vastes analyses par compétence des principes éthiques partout dans le monde, en particulier aux États-Unis, dans les pays de l’Union européenne et au sein d’importants consortiums de recherche.

Les principes « alpha » de l’Ontario complètent les principes du gouvernement fédéral canadien en comblant une lacune à propos de la spécificité. Les principes de l’Ontario appuient notre écosystème économique diversifié en ne détonnant pas des pratiques exemplaires, principes et cadres existants.

Cette approche fait référence aux normes, principes et outils connus et s’y harmonise afin d’apporter des précisions plutôt que de créer des obstacles à une innovation sécuritaire, responsable et avantageuse.

Consultez aussi les Lignes directrices sur la transparence (GitHub).

1. Transparents et explicables

Il doit exister une divulgation transparente et responsable entourant les technologies axées sur les données comme l’IA, les décisions automatisées et les systèmes de langage machine pour faire en sorte que les gens comprennent les résultats et puissent en discuter, les remettre en question et les améliorer.

Lorsqu’une prise de décision automatisée est utilisée pour prendre des décisions personnalisées et automatisées concernant des humains, il doit exister des renseignements significatifs à propos de la logique employée, ainsi que sur l’importance et les conséquences envisagées d’un tel traitement pour le sujet des données.

Pourquoi cela importe-t-il?

Il n’existe aucune façon de rendre imputables les technologies axées sur les données, en particulier alors qu’elles ont des conséquences sur différents groupes historiquement défavorisés, si le public ignore les algorithmes et les décisions automatisées que prend le gouvernement.

Une utilisation transparente doit s’accompagner d’explications en langage clair mises à la disposition du public et non seulement à la disposition du milieu technique ou de la recherche. 

Pour de plus amples renseignements à ce sujet, veuillez consulter les Lignes directrices sur la transparence.

2. Bons et équitables

Les technologies axées sur les données doivent être conçues d’une façon qui respecte la règle de droit, les droits de la personne, les valeurs démocratiques et la diversité, et elles doivent inclure des mesures de protection adéquates pour assurer une société juste et équitable.

Les créateurs, les décideurs et les concepteurs doivent respecter la règle de droit, les droits de la personne et les valeurs démocratiques durant tout le cycle de vie d’un système d’IA. Ces valeurs incluent la liberté, la dignité et l’autonomie, la protection de la vie privée et des données, la non-discrimination et l’égalité, la diversité, l’équité, la justice sociale et les droits du travail reconnus à l’échelle internationale.

Pourquoi cela importe-t-il?

Les systèmes algorithmiques et d’apprentissage automatisé évoluent au cours de leur cycle de vie et, à ce titre, il est important que les systèmes en place et les technologies soient bons et équitables dès le départ dans leurs saisies de données et tout au long du cycle d’utilisation. Les définitions de « bon » et d’« équitable » sont intentionnellement vagues pour permettre aux créateurs et aux concepteurs de tenir compte de tous les utilisateurs touchés directement et indirectement par le déploiement d’un système automatisé de prise de décision.

3. Sécuritaires

Les technologies axées sur les données comme les systèmes d’IA et de langage machine doivent fonctionner d’une façon robuste et sécuritaire tout au long de leur cycle de vie, et il faut continuellement évaluer et gérer les risques possibles.

Les créateurs et les concepteurs doivent mettre en œuvre des mécanismes et mesures de protection, par exemple une capacité de décision humaine et d’arrêt complet des activités du système, qui sont appropriés au contexte et prédéterminés au moment du déploiement initial.

Pourquoi cela importe-t-il?

La création de technologies axées sur les données sécuritaires signifie d’intégrer des mesures de protection tout au long du cycle de déploiement du système algorithmique. Les décisions algorithmiques automatisées peuvent intégrer et amplifier des schémas indésirables dans les données sur lesquelles elles sont formées. En dépit de nos plus grands efforts, il y aura des conséquences et des impacts imprévus. Les systèmes devront faire l’objet d’une surveillance et d’une planification de l’atténuation continues pour veiller à ce que, si le système algorithmique prend des décisions qui ne sont plus acceptables, un humain puisse adapter, corriger ou améliorer le système.

4. Imputables et responsables

Les organismes et particuliers qui créent, déploient ou exploitent des systèmes d’IA doivent être imputables de leur bon fonctionnement continu en lien avec les principes mentionnés précédemment. Les systèmes algorithmiques doivent périodiquement faire l’objet d’un examen par les pairs ou d’une vérification pour faire en sorte que des préjugés indésirables ne se sont pas malencontreusement insinués avec le temps.

Lorsque l’IA est utilisée pour prendre des décisions concernant des personnes, un processus de recours doit exister afin de mieux comprendre comment une décision donnée a été prise.

Pourquoi cela importe-t-il?

Afin qu’il existe une imputabilité pour les décisions prises par un système d’IA ou de langage machine, il faut désigner une personne, un groupe de personnes ou un organisme avant le déploiement. Cette mesure fait en sorte que, si un recours est nécessaire, il existe une entité prédésignée responsable et pouvant être imputable des résultats des systèmes algorithmiques.

5. Centrés sur l’humain

Les processus et résultats derrière un algorithme doivent toujours être conçus en ayant pour principale considération les utilisateurs humains. L’IA centrée sur l’humain doit être représentative des renseignements, objectifs et contraintes qu’évalue un décideur humain lorsqu’il en arrive à une décision.

Le fait d’accorder la priorité aux utilisateurs humains entraîne l’évaluation de toute conséquence (directe et indirecte) pouvant avoir une incidence sur eux en raison de l’utilisation de l’algorithme. Il doit également exister un plan d’urgence en cas de résultats non intentionnels, y compris le retrait des algorithmes en entier ou la fin de leur application.

Pourquoi cela importe-t-il?

Mettre l’accent sur l’utilisateur humain garantit que les résultats ne causent pas d’effets indésirables aux utilisateurs dans le processus de création de gains d’efficacité supplémentaires.

En outre, une conception axée sur l’humain est nécessaire pour garantir qu’il est possible de garder un humain dans la boucle au moment de s’assurer du fonctionnement sécuritaire du système algorithmique. L’élaboration de systèmes algorithmique en ayant l’utilisateur à l’esprit garantit de meilleurs résultats sociétaux et économiques découlant des technologies axées sur les données.

6. Sensés et appropriés

Les technologies axées sur les données comme IA ou le langage machine doivent être élaborées en prenant en compte la façon dont elles pourraient s’appliquer à des secteurs particuliers ou à des cas individuels, et elles doivent s’harmoniser avec la Charte canadienne des droits et libertés et avec les principes fédéraux et provinciaux d’utilisation éthique de l’IA.

D’autres sous-produits du déploiement des technologies axées sur les données, par exemple les impacts environnementaux, la durabilité, les impacts sociétaux, doivent être pris en compte puisqu’ils s’appliquent à des secteurs et cas d’utilisation précis et à des cadres, pratiques exemplaires et lois applicables.

Pourquoi cela importe-t-il?

Les systèmes algorithmiques et les applications de langage machine différeront selon le secteur et l’utilisateur. Par conséquent, même si les principes mentionnés plus haut constituent un bon point de départ pour élaborer des technologies axées sur les données éthiques, il est important également de tenir compte des secteurs et milieux particuliers auxquels l'algorithme est appliqué.

Il faut consulter les experts en technologie et en éthique au moment d’élaborer des technologies axées sur les données comme l’IA afin qu’ils puissent nous mettre en garde contre tout effet indésirable (y compris les effets sociétaux, environnementaux et autres effets à long terme).

Ce que nous avons entendu

Consultez les sommaires des commentaires sur les lignes directrices «alpha» sur la transparence et les principes «alpha» pour une utilisation éthique. N'hésitez pas à ajouter aux deux et si vous êtes intéressé, voir le Mémorandum de la Commission du droit de l'Ontario sur ces lignes directrices.