Les innovations technologiques se complexifient et deviennent un facteur d’influence majeur du développement des sociétés. Pourtant, peu de processus de régulations réussissent à les baliser causant, entre autres, des enjeux sociaux, éthiques, économiques, politiques et environnementaux. Cet article se penche sur l’usage de la métaphore des écosystèmes appliquée à la gouvernance de l’intelligence artificielle (IA). L’IA apparaît désormais dans un vaste paysage numérique organisé à l’interface du « techno » et du « social » décuplant les possibilités médiatiques et l’accès à des ressources expertes. Certains proposent le modèle des écosystèmes pour ouvrir cette « boîte noire » du technosocial demeurant compliqué à réguler. Par une revue critique des écrits en éthique de l’IA, nous argumentons l’impératif et l’urgence d’un partage des responsabilités systémique entre les institutions imputables en IA. Plusieurs théories sociales permettent de concevoir par collectif le partage des responsabilités par groupes, par communautés, voire par « écosystèmes ». Le but est de mieux comprendre et, espérons-le, d’aider à mieux gérer cette dynamique complexe liant le techno au social.
Date de publication
Auteur(s)
Type de publication
Référence bibliographique (FR)