Risk of Bias Mitigation for Vulnerable and Diverse Groups in Community-Based Primary Health Care Artificial Intelligence Models: Protocol for a Rapid Review

Résumé

La littérature actuelle identifie plusieurs avantages potentiels des modèles d'intelligence artificielle pour la santé des populations et l'efficacité des systèmes de santé. Cependant, il existe un manque de compréhension sur la manière dont le risque de biais est pris en compte dans le développement des algorithmes d'intelligence artificielle en soins de santé primaires et services de santé communautaire, et dans quelle mesure ils perpétuent ou introduisent des biais potentiels envers des groupes considérés comme vulnérables. À notre connaissance, aucune revue n'est actuellement disponible pour identifier les méthodes pertinentes pour évaluer le risque de biais dans ces algorithmes. La question principale de cette revue est de savoir quelles stratégies peuvent évaluer le risque de biais dans les algorithmes de soins de santé primaires envers les groupes vulnérables ou divers. 

Date de publication
Auteur(s)
Maxime Sasseville, Steven Ouellet, Caroline Rhéaume, Vincent Couture, Philippe Després, Jean-Sébastien Paquette, Karine Gentelet, David Darmon, Marie-Pierre Gagnon
Mots-Clés/Thématique
Référence bibliographique (FR)
Sasseville, M., Ouellet, S., Rhéaume, C., Couture, V., Després, P., Paquette, J. S., Gentelet, K., Darmon, D., Bergeron, F., & Gagnon, M. P. (2023). Risk of Bias Mitigation for Vulnerable and Diverse Groups in Community-Based Primary Health Care Artificial Intelligence Models: Protocol for a Rapid Review. JMIR research protocols, 12, e46684.

Ne manquez rien de l’actualité de l’Obvia!

Recevez les nouvelles de la communauté, les événements à venir et les opportunités liées à la recherche.