Prêt pour l'IA

Encadré 8 | Exemples de principes éthiques directeurs pouvant guider le développement et l’utilisation responsables de l’IA 

Pour une IA responsable, le Québec mise sur une approche fondée sur les risques : encadrer les usages selon leur impact, protéger les droits fondamentaux et encourager l’innovation. Un équilibre entre éthique, sécurité et progrès, au cœur d’une gouvernance humaine et transparente.

Lecture 4 min.

ENCADRÉ 8

Déclaration de Montréal pour un développement responsable de l’IA 

  • Bien-être 

  • Respect de l’autonomie 

  • Protection de l’intimité et de la vie privée 

  • Solidarité 

  • Participation démocratique 

  • Équité 

  • Inclusion de la diversité 

  • Prudence 

  • Responsabilité 

  • Développement soutenable 

Recommandation de l’UNESCO sur l’IA 

  • Principes de proportionnalité et d’innocuité 

  • Sûreté et sécurité 

  • Équité et non-discrimination 

  • Durabilité 

  • Droit au respect de la vie privée et protection des données 

  • Surveillance et décision humaines 

  • Transparence et explicabilité 

  • Responsabilité et redevabilité 

  • Sensibilisation et éducation 

  • Gouvernance et collaboration multipartites et adaptatives 

Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés 

  1. Responsabilisation 

  2. Sécurité 

  3. Justice et équité 

  4. Transparence 

  5. Surveillance humaine 

  6. Validité et fiabilité 

Recommandations de l’OCDE sur l’IA 

  • Croissance inclusive, développement durable et bien-être 

  • Valeurs centrées sur l’humain et équité 

  • Transparence et explicabilité 

  • Robustesse, sûreté et sécurité 

  • Responsabilité 

[EXTRAIS DU RAPPORT]

Une approche basée sur la sévérité des risques 

Étant donné l’ubiquité de l’IA, il est préférable d’encadrer ses usages plutôt que la technologie elle-même, à l’exception des modèles dits « fondationnels » (voir l’encadré 9). Pour assurer la pertinence et la pérennité du cadre québécois, il conviendra donc, comme le font les projets de loi fédéral et européen, d’adopter une réglementation basée sur les risques. Cette approche veut que les règles et les normes qui sont élaborées et appliquées tiennent compte de la nature et du niveau des risques associés à une activité, un produit, une technologie ou un domaine d’activité particulier. Elle permet en outre de veiller à la sécurité, la santé et la protection du public tout en offrant une certaine flexibilité aux acteurs, sans trop contraindre leur capacité à innover. Elle permet aussi de concentrer les efforts d’encadrement et les ressources de l’État dans les domaines d’application de l’IA où les risques sont les plus élevés, notamment pour les droits de la personne, plutôt qu’en traitant uniformément toutes les situations. L’approche selon les risques est reconnue pour sa plus grande adaptabilité aux évolutions technologiques. La réglementation pourrait reposer sur les niveaux de risque suivants : 

  • Risque inacceptable : tout usage de l’IA posant un risque inadmissible ou incompatible avec les valeurs et les principes sur lesquels repose le cadre de gouvernance (p. ex. : recours à l’IA pour surveiller une population, manipulation des enfants et des personnes vulnérables, ou notation des citoyens en fonction de leurs comportements) serait carrément interdit. 

  • Haut risque : des règles d’encadrement contraignantes seraient adoptées quand un usage paraît hautement risqué (p. ex. : l’IA est utilisée à des fins d’identification biométrique dans des secteurs réglementés, comme l’aviation ou la santé, ou pour gérer des infrastructures). 

  • Risque limité : des normes minimales de transparence devraient être établies quand le risque d’utiliser un système d’IA est limité (p. ex. : une organisation devrait informer ses clients qu’ils interagissent en ligne avec un agent conversationnel plutôt qu’un humain). 

  • Risque minimal ou nul : aucun contrôle particulier ne serait nécessaire quand un système paraît inoffensif, comme un outil de réservation de places au restaurant ou un logiciel de classement automatique des produits issus d’une chaîne de montage. 

La création d’un cadre de gouvernance basé sur les risques viendra néanmoins avec son lot de défis. Cette approche requerra notamment une évaluation approfondie des risques associés à chaque usage particulier de l’IA. Certains de ces risques sont connus, comme celui qu’un outil tienne des propos racistes ou produise des résultats discriminatoires, empiète sur certains droits, soit vulnérable aux attaques ou facilite celles-ci. Mais il sera extrêmement difficile d’anticiper tous les risques associés à l’IA. Il sera également ardu de qualifier, de quantifier ou de classer ces risques, mais cet exercice sera déterminant. L’efficacité et la pérennité du cadre québécois de gouvernance de l’IA en dépendront. 

Consulter le rapport complet ici.

Publié le 5 juin | Mis à jour le 10 juin