Répercussions de l’intelligence artificielle au Canada : Tania Saba comparait devant le Sénat

Publié le:

Le 12 mars 2026, le Comité sénatorial des affaires sociales, des sciences et de la technologie du Canada a invité Tania Saba, directrice générale intérimaire de l’Obvia, professeure titulaire à l’École de relations industrielles de l’Université de Montréal et titulaire de la Chaire BMO - Diversité et gouvernance à comparaître dans le cadre de son étude portant sur les répercussions de l’intelligence artificielle (IA) au pays. 

Cette démarche s’inscrit dans une réflexion plus large où sont examinés de nombreux enjeux clés tels que la gouvernance, la souveraineté des données, l’éthique, la protection de la vie privée, ainsi que les risques et impacts sociétaux associés au déploiement de l’IA. 

Si le Canada bénéficie d’un leadership scientifique reconnu à l’échelle internationale, l’adoption de l’IA demeure limitée, en particulier au sein des petites et moyennes entreprises. Parmi les principaux freins figurent l’accès restreint aux ressources financières et technologiques, le manque d’expertise interne ainsi que l’accès limité aux données nécessaires au développement et au déploiement des systèmes. 

Le Canada a un très fort leadership scientifique en matière d’IA, et les pressions pour son adoption sont importantes. Or, l’adoption n’est pas au rendez-vous, notamment dans les PME, où à peine 12% des entreprises qui rencontrent des obstacles particuliers adoptent l’IA.

-Tania Saba, directrice générale intérimaire de l’Obvia

Lors de sa comparution, Tania Saba a réitéré le rôle essentiel de l’Observatoire dans le développement d’une recherche indépendante sur les impacts sociétaux de l’intelligence artificielle et du numérique, tout en mettant de l’avant son caractère interdisciplinaire et intersectoriel, ancré dans les sciences sociales. Sa prise de parole s’est ensuite structurée autour de trois questions fondamentales liées à la gouvernance de l'IA.

Face aux transformations rapides liées à l’intelligence artificielle, quels principes éthiques doivent guider le développement de l’IA ? 

Au cours des dernières années, plusieurs organisations internationales ont proposé des cadres éthiques structurants, notamment l’UNESCO, l’OCDE ou encore diverses initiatives issues de forums internationaux.  

Ces cadres révèlent une convergence autour de principes fondamentaux : une IA centrée sur l’humain, respectueuse des droits fondamentaux et des valeurs démocratiques; la nécessité d’assurer la transparence, l’explicabilité et la responsabilité des systèmes algorithmiques; l’importance de garantir la sécurité, la robustesse et la fiabilité des technologies; ainsi que la volonté de promouvoir une innovation responsable, attentive aux impacts économiques, sociaux et environnementaux. 
 

Comment renforcer ces principes dans un contexte fragmenté et compétitif ? 

Bien que les gouvernements jouent un rôle central, la gouvernance de l’IA repose désormais sur un écosystème élargi incluant les communautés scientifiques, les centres de recherche, les organisations internationales, les entreprises technologiques et les réseaux de collaboration internationaux. 

Ces collaborations rapprochent la recherche scientifique, les politiques publiques et les préoccupations sociales, et participent à l’émergence d’une forme de diplomatie scientifique. Cependant, plusieurs défis persistent : la coordination entre acteurs, les priorités divergentes entre gouvernements, entreprises et milieux scientifiques, les tensions entre intérêts économiques et objectifs de régulation, ainsi que la fragmentation des mécanismes de coopération internationale. 

L’un des enjeux majeurs pour les prochaines années sera de renforcer les espaces de dialogue et de coopération entre ces différents acteurs, afin de mieux articuler innovation technologique, expertise scientifique et gouvernance publique. 
-Tania Saba, directrice générale intérimaire de l’Obvia

Comment traduire les principes éthiques en mécanismes concrets ? 

Il est essentiel de dépasser une approche strictement déclarative de l’éthique pour évoluer vers une gouvernance opérationnelle de l’IA. Cela passe notamment par le développement d’indicateurs et d’outils scientifiques permettant d’encadrer concrètement le développement et l’utilisation des systèmes d’intelligence artificielle. 

Cette évolution se traduit par l’émergence de cadres normatifs et réglementaires visant à opérationnaliser les principes éthiques, à travers des standards de gestion des risques, de qualité des données, de transparence et de supervision des systèmes. Parallèlement, les pratiques de divulgation et de gouvernance organisationnelle intègrent progressivement les enjeux liés à l’IA, notamment en matière de gestion des risques et de reddition de comptes.

Dans ce contexte, le développement d’indicateurs mesurables devient central pour évaluer la performance des systèmes, documenter leurs impacts sur les organisations et la société, et renforcer leur imputabilité.

Toutefois, des difficultés subsistent, notamment la fragmentation des normes, le manque de données sur les impacts réels de l’IA, ainsi que la difficulté pour les PME à s’approprier et à intégrer ces cadres dans leurs pratiques.

En somme, le défi n’est plus seulement de définir des principes éthiques pour l’IA, mais bien de les traduire en dispositifs concrets capables d’orienter les pratiques dans leur développement et leur adoption, de mesurer les impacts des technologies, d’imposer leur imputabilité très important pour le fardeau de la preuve et de soutenir un développement de l’IA véritablement responsable et durable.

Écouter la séance complète