Encadré 8 | Exemples de principes éthiques directeurs pouvant guider le développement et l’utilisation responsables de l’IA

ENCADRÉ 8
Déclaration de Montréal pour un développement responsable de l’IA
Bien-être
Respect de l’autonomie
Protection de l’intimité et de la vie privée
Solidarité
Participation démocratique
Équité
Inclusion de la diversité
Prudence
Responsabilité
Développement soutenable
Recommandation de l’UNESCO sur l’IA
Principes de proportionnalité et d’innocuité
Sûreté et sécurité
Équité et non-discrimination
Durabilité
Droit au respect de la vie privée et protection des données
Surveillance et décision humaines
Transparence et explicabilité
Responsabilité et redevabilité
Sensibilisation et éducation
Gouvernance et collaboration multipartites et adaptatives
Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés
Responsabilisation
Sécurité
Justice et équité
Transparence
Surveillance humaine
Validité et fiabilité
Recommandations de l’OCDE sur l’IA
Croissance inclusive, développement durable et bien-être
Valeurs centrées sur l’humain et équité
Transparence et explicabilité
Robustesse, sûreté et sécurité
Responsabilité
[EXTRAIS DU RAPPORT]
Une approche basée sur la sévérité des risques
Étant donné l’ubiquité de l’IA, il est préférable d’encadrer ses usages plutôt que la technologie elle-même, à l’exception des modèles dits « fondationnels » (voir l’encadré 9). Pour assurer la pertinence et la pérennité du cadre québécois, il conviendra donc, comme le font les projets de loi fédéral et européen, d’adopter une réglementation basée sur les risques. Cette approche veut que les règles et les normes qui sont élaborées et appliquées tiennent compte de la nature et du niveau des risques associés à une activité, un produit, une technologie ou un domaine d’activité particulier. Elle permet en outre de veiller à la sécurité, la santé et la protection du public tout en offrant une certaine flexibilité aux acteurs, sans trop contraindre leur capacité à innover. Elle permet aussi de concentrer les efforts d’encadrement et les ressources de l’État dans les domaines d’application de l’IA où les risques sont les plus élevés, notamment pour les droits de la personne, plutôt qu’en traitant uniformément toutes les situations. L’approche selon les risques est reconnue pour sa plus grande adaptabilité aux évolutions technologiques. La réglementation pourrait reposer sur les niveaux de risque suivants :
Risque inacceptable : tout usage de l’IA posant un risque inadmissible ou incompatible avec les valeurs et les principes sur lesquels repose le cadre de gouvernance (p. ex. : recours à l’IA pour surveiller une population, manipulation des enfants et des personnes vulnérables, ou notation des citoyens en fonction de leurs comportements) serait carrément interdit.
Haut risque : des règles d’encadrement contraignantes seraient adoptées quand un usage paraît hautement risqué (p. ex. : l’IA est utilisée à des fins d’identification biométrique dans des secteurs réglementés, comme l’aviation ou la santé, ou pour gérer des infrastructures).
Risque limité : des normes minimales de transparence devraient être établies quand le risque d’utiliser un système d’IA est limité (p. ex. : une organisation devrait informer ses clients qu’ils interagissent en ligne avec un agent conversationnel plutôt qu’un humain).
Risque minimal ou nul : aucun contrôle particulier ne serait nécessaire quand un système paraît inoffensif, comme un outil de réservation de places au restaurant ou un logiciel de classement automatique des produits issus d’une chaîne de montage.
La création d’un cadre de gouvernance basé sur les risques viendra néanmoins avec son lot de défis. Cette approche requerra notamment une évaluation approfondie des risques associés à chaque usage particulier de l’IA. Certains de ces risques sont connus, comme celui qu’un outil tienne des propos racistes ou produise des résultats discriminatoires, empiète sur certains droits, soit vulnérable aux attaques ou facilite celles-ci. Mais il sera extrêmement difficile d’anticiper tous les risques associés à l’IA. Il sera également ardu de qualifier, de quantifier ou de classer ces risques, mais cet exercice sera déterminant. L’efficacité et la pérennité du cadre québécois de gouvernance de l’IA en dépendront.
Consulter le rapport complet ici.