Développement de l’outil STAR (Scientific, Transparent and Applicable Rankings) pour les guides de pratique clinique
Les guides de pratique clinique sont des outils essentiels pour orienter les médecins dans leur pratique. Des guides de haute qualité permettent de standardiser les soins, d’améliorer leur qualité et de réduire les coûts. Au cours des trois dernières décennies, la Chine a publié plus de 1 000 guides, avec plus de 200 produits annuellement ces dernières années. Cependant, les outils d’évaluation existants présentent des limites importantes : absence d’éléments clés tels que l’applicabilité des recommandations, la transparence méthodologique ou les registres prospectifs, une fiabilité et validité insuffisamment évaluées, et une focalisation étroite nécessitant l’utilisation combinée de plusieurs outils.
Pour répondre à ces défis, un groupe de travail multidisciplinaire a développé l’outil STAR (Scientific, Transparent and Applicable Rankings). Son objectif est de fournir une méthode d’évaluation unifiée, complète et pratique pour les guides de pratique clinique, adaptée aux professionnels de santé, décideurs politiques et méthodologistes.
La construction de STAR a suivi une démarche rigoureuse : création de groupes de travail, revue de la littérature, enquêtes Delphi itératives, analyse hiérarchique, rencontres de consensus et tests de fiabilité, validité et utilisabilité. Trente-neuf experts issus de domaines variés (méthodologie, statistique, édition médicale, clinique) ont participé, accompagnés de 125 évaluateurs (90 cliniciens et 35 méthodologistes) expérimentés.
Une revue scopique a identifié sept outils d’évaluation et deux articles méthodologiques, permettant de générer une liste initiale de 42 items regroupés en 11 domaines. Deux tours d’enquête Delphi ont abouti à la conservation de 39 items consensuels. L’analyse hiérarchique a défini les pondérations, avec les poids les plus élevés pour les domaines « Questions cliniques » et « Preuves scientifiques », et le plus faible pour le domaine « Autres ».
Les tests ont porté sur deux échantillons : les 50 meilleurs guides chinois de 2020 et l’ensemble des guides publiés en Chine en 2021. Les évaluateurs ont analysé chaque guide de manière indépendante selon les critères STAR, avec un score total calculé par somme pondérée.
La fiabilité interne, mesurée par le coefficient alpha de Cronbach, variait de 0,078 à 0,902 selon les domaines (moyenne 0,588). Le domaine « Registre » montrait la meilleure cohérence, contrairement aux domaines « Groupes de développement », « Conflits d’intérêts » et « Accessibilité ». La concordance inter-évaluateurs, évaluée par le kappa de Cohen, atteignait 0,774 pour les méthodologistes et 0,618 pour les cliniciens.
La validité de contenu, mesurée par l’indice S-CVI, s’élevait à 0,905. La validité critère, comparant les scores STAR à ceux de trois outils de référence, a révélé un coefficient de corrélation de Pearson de 0,885. L’utilisabilité, notée sur une échelle de 1 à 5 par les cliniciens, affichait un score moyen de 4,6, avec un temps médian d’évaluation de 20 minutes par guide.
Bien que démontrant une robustesse méthodologique globale, STAR présente des limitations liées à la subjectivité des pondérations. Les développements futurs incluront un manuel utilisateur et des modules de formation.
En conclusion, l’outil STAR comble les lacunes des méthodes d’évaluation existantes en offrant une approche intégrée, fiable et efficiente pour l’appréciation des guides de pratique clinique. Son processus de développement rigoureux en garantit l’adéquation aux besoins diversifiés des acteurs de santé.
doi.org/10.1097/CM9.0000000000002713