Episode 12 | Comment l’IA peut préserver des langues et rapprocher des communautés avec Karine Gentelet
Que se passe-t-il lorsque des systèmes d’IA discriminent des personnes bien réelles? Karine Gentelet, sociologue et directrice scientifique de la collaboration avec la société civile à l’OBVIA, nous aide à comprendre les fractures numériques, les risques pour les droits et les moyens de reprendre du pouvoir sur nos données.
Publié et mis à jour le 28 nov. 2025 Lecture 2 min.
Alors que l’intelligence artificielle se déploie rapidement dans les services publics et les organisations privées, une question revient avec insistance, qui décide, qui est inclus et qui supporte les risques lorsque des systèmes d’IA discriminent des personnes bien réelles. Dans cet épisode du balado IA Québec, Karine Gentelet explore ces enjeux en profondeur. Elle y présente l’IA comme un outil qui peut servir le bien commun à condition de partir de besoins réels, de nommer clairement les impacts possibles et de relier les usages numériques aux droits humains.
L’épisode met en lumière les fractures numériques multiples qui traversent la société, accès inégal aux infrastructures, difficulté à comprendre l’information, sous représentation ou sur représentation de certains groupes dans les bases de données. Karine Gentelet insiste sur le rôle de la société civile et du palier municipal pour rapprocher les citoyens des décisions technologiques, ouvrir des espaces de concertation et développer une littératie des droits numériques. Pour les dirigeantes et dirigeants, qu’ils soient en municipalité, en OBNL ou en PME, ce regard invite à adopter l’IA avec une approche critique, en posant des questions sur l’origine des données, les risques de discrimination et les responsabilités en cas de préjudice.
À travers des exemples tirés de son travail avec des communautés autochtones, elle montre aussi comment l’IA peut devenir un levier positif, par exemple pour la préservation des langues et le renforcement de la souveraineté sur les données. Un épisode du balado IA Québec pour mieux comprendre ce qui se joue lorsque des systèmes d’IA discriminent des personnes bien réelles, et pour reprendre du pouvoir sur vos données, vos décisions et vos droits.

