Résumé
La littérature actuelle identifie plusieurs avantages potentiels des modèles d'intelligence artificielle pour la santé des populations et l'efficacité des systèmes de santé. Cependant, il existe un manque de compréhension sur la manière dont le risque de biais est pris en compte dans le développement des algorithmes d'intelligence artificielle en soins de santé primaires et services de santé communautaire, et dans quelle mesure ils perpétuent ou introduisent des biais potentiels envers des groupes considérés comme vulnérables. À notre connaissance, aucune revue n'est actuellement disponible pour identifier les méthodes pertinentes pour évaluer le risque de biais dans ces algorithmes. La question principale de cette revue est de savoir quelles stratégies peuvent évaluer le risque de biais dans les algorithmes de soins de santé primaires envers les groupes vulnérables ou divers.