Vue d’ensemble

Les six principes pour une utilisation éthique visent à faire en sorte que l’utilisation des technologies renforcées par les données dans le cadre des processus, des programmes et des services gouvernementaux soit conforme aux considérations et aux valeurs morales.

L'équipe de l’intelligence artificielle (IA) de confiance au sein de Services numériques de l'Ontario a entrepris de vastes analyses par compétence des principes éthiques partout dans le monde, en particulier en Nouvelle-Zélande, aux États-Unis, dans les pays de l’Union européenne et au sein d’importants consortiums de recherche.

Les principes « bêta » de l’Ontario se greffent aux principes du gouvernement du Canada en comblant une lacune concernant la spécificité. Les principes de l’Ontario appuient notre écosystème économique diversifié sans être incompatibles avec les pratiques exemplaires, les principes et les cadres en place. Cette approche est fondée sur des normes, des principes et des outils connus et s’y conforme afin d’apporter des précisions plutôt que de créer des obstacles à une innovation sécuritaire, responsable et avantageuse.

Nous en sommes aux premières étapes de la concrétisation de ces principes. Nous vous incitons à adopter le plus grand nombre possible de ces principes et à nous faire part de vos commentaires. Vous pouvez nous envoyer un courriel à dawn.edmonds@ontario.ca pour obtenir de plus amples renseignements.

Consultez aussi les Lignes directrices sur la transparence (GitHub).

1. Transparents et explicables

Il doit y avoir une utilisation transparente et une divulgation responsable des technologies renforcées par les données comme l'IA, les décisions automatisées et les systèmes d’apprentissage automatique pour que les gens comprennent les résultats obtenus et puissent en discuter, les remettre en question et les améliorer. Il faut notamment être ouverts quant à la façon et à la raison d’utiliser ces technologies.

Lorsqu’on a eu recours à l'automatisation pour prendre ou aider à prendre des décisions, une explication significative doit être fournie. L'explication doit être significative pour la personne qui la demande. Elle doit comprendre des renseignements pertinents sur la nature de la décision, la façon dont elle a été prise et ses conséquences.

Importance

L'utilisation transparente est le principe clé qui permet de mettre en œuvre les autres principes tout en instaurant la confiance dans l'utilisation par le gouvernement des technologies renforcées par les données. Elle favorise également un dialogue entre ceux qui utilisent la technologie et ceux qui sont touchés par celle-ci.

Les explications significatives sont importantes, car elles aident les gens à comprendre et éventuellement à remettre en question les résultats, ce qui contribue à faire en sorte que les décisions soient prises de manière équitable. Elles permettent également de repérer et d'annuler les effets négatifs sur les groupes historiquement défavorisés.

Pour de plus amples renseignements à ce sujet, veuillez consulter les Lignes directrices sur la transparence.

2. Bons et équitables

Les technologies renforcées par les données doivent être conçues et utilisées tout au long de leur cycle de vie de façon à respecter la règle de droit, les droits de la personne, les libertés civiles et les valeurs démocratiques.

Ces valeurs englobent la dignité, l’autonomie, la protection de la vie privée et des données, la non-discrimination, l’égalité et l’équité.

Importance

Les systèmes algorithmiques et d’apprentissage automatisé évoluent au cours de leur cycle de vie et, à ce titre, il est important que les systèmes en place et les technologies soient bons et équitables dès le départ lors de la saisie de données et tout au long du cycle d’utilisation. Les définitions de « bon » et d’« équitable » sont intentionnellement vastes pour permettre aux créateurs et aux concepteurs de tenir compte de tous les utilisateurs touchés directement et indirectement par la mise en œuvre d’un système automatisé de prise de décisions.

3. Sécuritaires

Les technologies renforcées par les données comme les systèmes d’IA et d’apprentissage automatique doivent fonctionner d’une façon sécuritaire tout au long de leur cycle de vie, et il faut continuellement évaluer et gérer les risques.

Les créateurs, les décideurs et les concepteurs doivent intégrer des mesures de protection appropriées tout au long du cycle de vie du système pour s'assurer qu'il fonctionne comme prévu. Il s'agit notamment de mécanismes liés à la mise à l’essai du système, aux projets pilotes, à la mise à l'échelle et à l'intervention humaine, ainsi que de processus de rechange au cas où le système devrait cesser de fonctionner. Les mécanismes doivent être adaptés au contexte et déterminés avant la mise en œuvre du système, mais ils devraient faire l'objet de modifications tout au long de son cycle de vie.

Importance

Les décisions algorithmiques automatisées peuvent intégrer et amplifier des schémas indésirables dans les données qui ont servi à leur formation. De plus, il peut se produire des problèmes qui deviennent apparents seulement une fois que le système est en place.

Par conséquent, en dépit des efforts que nous déployons, il est nécessaire de tenir compte de conséquences et d’impacts imprévus. Ainsi, les systèmes devront faire l’objet d’une surveillance et d’une planification de l’atténuation continues pour qu’une personne puisse adapter, rectifier ou améliorer le système algorithmique s’il prend des décisions qui ne sont pas voulues.

4. Imputables et responsables

Les organisations et les particuliers qui développent, mettent en œuvre ou exploitent des systèmes d'IA doivent être imputables de leur bon fonctionnement continu en lien avec les autres principes. L’imputabilité et la responsabilité de la prise de décisions par des personnes concernant les systèmes d'IA au sein d'une organisation doivent être clairement définies, réparties de manière appropriée et maintenues activement tout au long du cycle de vie d’un système. Une culture organisationnelle axée sur le partage des responsabilités éthiques à l'égard du système doit également être préconisée.

Lorsque l'IA est utilisée pour prendre ou aider à prendre des décisions, un processus de recours public et accessible doit être conçu, développé et mis en œuvre avec la participation d'une équipe multidisciplinaire et des parties prenantes touchées. De plus, les systèmes algorithmiques doivent régulièrement faire l’objet d’un examen par les pairs ou d’une vérification pour s’assurer que des préjugés indésirables ne se sont pas malencontreusement insinués avec le temps.

Importance

En déterminant et répartissant de manière appropriée les responsabilités au sein d'une organisation, on peut assurer une surveillance humaine permanente du système. Outre la clarté des rôles liés à la responsabilité, il est également important de favoriser une culture organisationnelle axée sur le partage des responsabilités éthiques. Cela permet de prévenir les lacunes et d'éviter la situation où les considérations morales sont toujours perçues comme la responsabilité de quelqu'un d'autre.

Notre cadre juridique actuel comprend de nombreux processus traditionnels de recours liés à la prise de décisions gouvernementales, mais les systèmes d'IA peuvent présenter des défis uniques pour ces processus traditionnels en raison de leur complexité. La contribution d'une équipe multidisciplinaire et des parties prenantes touchées aidera à cerner ces problèmes à l'avance et à concevoir des mécanismes appropriés pour les atténuer.

Un examen régulier des systèmes d'IA par les pairs est également important. Il se peut que des problèmes liés aux préjugés ne soient pas évidents lors de la conception ou du développement initial des systèmes d'IA. Il faut donc tenir compte de cette exigence tout au long du cycle de vie du système.

5. Centrés sur l’humain

Les systèmes d'IA doivent être conçus dans l'optique d'un bénéfice public exprimé clairement qui tient compte de ceux qui interagissent avec le système et de ceux qui sont touchés par celui-ci. Ces groupes devraient être mobilisés de manière significative tout au long du cycle de vie du système, de façon à contribuer à son développement et en améliorer le fonctionnement. On préconise fortement une approche de résolution de problèmes qui englobe la conception centrée sur l'humain.

Importance

La formulation claire d'un avantage public est une étape importante qui permet un dialogue significatif dès le départ avec les groupes touchés et l’évaluation du succès obtenu par la suite.

Mettre l’accent sur ceux qui interagissent avec le système et ceux qui sont touchés par celui-ci garantit que les résultats ne causent pas d’effets indésirables dans le cadre du processus visant à obtenir des gains d’efficacité supplémentaires.

Le développement de systèmes algorithmiques qui intègrent une conception centrée sur l’humain permettra d'obtenir de meilleurs résultats sociétaux et économiques grâce aux technologies renforcées par les données.

6. Sensés et appropriés

Chaque système renforcé par les données ne fonctionne pas en vase clos. Son impact peut se faire ressentir dans un secteur particulier de la société et dans un contexte plus large. Les technologies renforcées par les données doivent être conçues en tenant compte de la manière dont elles peuvent s'appliquer à un secteur particulier, tout en étant conscient du contexte plus large. Ce contexte peut inclure des impacts sociaux ou discriminatoires pertinents. 

Importance

Les systèmes algorithmiques et les applications d’apprentissage automatique différeront selon le secteur. Par conséquent, même si les principes mentionnés précédemment constituent un bon point de départ pour élaborer des technologies renforcées par les données éthiques, il est important de tenir compte des secteurs particuliers auxquels l'algorithme s’applique.

Encourager une orientation spécifique aux secteurs permet également de favoriser une culture axée sur le partage des responsabilités éthiques et un dialogue au sujet des questions importantes soulevées par les systèmes renforcés par les données.