Après la réaction massive au lancement de ChatGPT fin 2022, les organismes de presse ont publié des chartes éthiques sur l’intelligence artificielle (IA) et intensifié leur expérimentation avec une panoplie d’outils d’IA, tandis que les journalistes et les publics ont réagi avec une certaine ambivalence à ces pratiques émergentes. Les médias publics - en vertu de leur mandat, mais aussi de leur relative stabilité financière et de la confiance accrue de leur public (Newman 2024) - sont particulièrement bien placés pour relever les défis complexes et en évolution rapide que pose l’IA générative à la qualité de l’information et à l’avenir du travail d’information. Le modèle des besoins des utilisateurs mis au point par la BBC et adapté par de nombreux autres organismes de presse semble prometteur pour regagner la confiance - et l’attention - des publics dans le respect des valeurs du service public et de l’éthique journalistique, tout en intégrant les principes d’une IA responsable.
Le présent rapport explore ce modèle des besoins des utilisateurs et brosse un portrait des défis posés par l'IA générative pour les médias publics. Pour ce faire, une analyse documentaire des chartes et initiatives en matière d’intelligence artificielle dans les médias publics a été réalisée spécifiquement pour ce rapport par Yonn Calvez, étudiant à la maîtrise en communication publique à l’Université Laval. L’analyse s’appuie également sur les idées originales d’universitaires et de praticiens experts d’Europe et du Canada3 qui ont participé à un atelier à la Délégation générale du gouvernement du Québec à Londres le 26 février 2025.

Brin, C. (2025). Médias publics, IA responsable et besoins des utilisateurs. Obvia.
Brin, C. (2025). Public service media, responsible AI and user needs. Obvia.