eOSCE stations live versus remote evaluation and scores variability - Inria - Institut national de recherche en sciences et technologies du numérique Accéder directement au contenu
Article Dans Une Revue BMC Medical Education Année : 2022

eOSCE stations live versus remote evaluation and scores variability

Nathan Peiffer Smadja
  • Fonction : Auteur
Léonore Muller
  • Fonction : Auteur
Laure Falque Pierrotin
  • Fonction : Auteur
Michael Thy
  • Fonction : Auteur
Maksud Assadi
  • Fonction : Auteur
Sonia Yung
  • Fonction : Auteur
Christian de Tymowski
  • Fonction : Auteur
Quentin Le Hingrat
  • Fonction : Auteur
Xavier Eyer
  • Fonction : Auteur
Paul Henri Wicky
  • Fonction : Auteur
Mehdi Oualha
  • Fonction : Auteur
Véronique Houdouin
  • Fonction : Auteur
Patricia Jabre
  • Fonction : Auteur
Dominique Vodovar
  • Fonction : Auteur
Marco Dioguardi Burgio
  • Fonction : Auteur
Noémie Zucman
  • Fonction : Auteur
Asmaa Tazi
  • Fonction : Auteur
Quentin Ressaire
  • Fonction : Auteur
Yann Nguyen
  • Fonction : Auteur
Muriel Girard
  • Fonction : Auteur
Adèle Frachon
  • Fonction : Auteur
François Depret
  • Fonction : Auteur
Anna Pellat
  • Fonction : Auteur
Adèle de Masson
  • Fonction : Auteur
Henri Azais
  • Fonction : Auteur
Nathalie de Castro
  • Fonction : Auteur
Caroline Jeantrelle
  • Fonction : Auteur
Nicolas Javaud
  • Fonction : Auteur
Alexandre Malmartel
  • Fonction : Auteur
Constance Jacquin de Margerie
  • Fonction : Auteur
Benjamin Chousterman
  • Fonction : Auteur
Ludovic Fournel
  • Fonction : Auteur
Mathilde Holleville
  • Fonction : Auteur
Stéphane Blanche
  • Fonction : Auteur

Résumé

Abstract Background Objective structured clinical examinations (OSCEs) are known to be a fair evaluation method. These recent years, the use of online OSCEs (eOSCEs) has spread. This study aimed to compare remote versus live evaluation and assess the factors associated with score variability during eOSCEs. Methods We conducted large-scale eOSCEs at the medical school of the Université de Paris Cité in June 2021 and recorded all the students’ performances, allowing a second evaluation. To assess the agreement in our context of multiple raters and students, we fitted a linear mixed model with student and rater as random effects and the score as an explained variable. Results One hundred seventy observations were analyzed for the first station after quality control. We retained 192 and 110 observations for the statistical analysis of the two other stations. The median score and interquartile range were 60 out of 100 (IQR 50–70), 60 out of 100 (IQR 54–70), and 53 out of 100 (IQR 45–62) for the three stations. The score variance proportions explained by the rater (ICC rater) were 23.0, 16.8, and 32.8%, respectively. Of the 31 raters, 18 (58%) were male. Scores did not differ significantly according to the gender of the rater ( p = 0.96, 0.10, and 0.26, respectively). The two evaluations showed no systematic difference in scores ( p = 0.92, 0.053, and 0.38, respectively). Conclusion Our study suggests that remote evaluation is as reliable as live evaluation for eOSCEs.

Domaines

Education

Dates et versions

hal-03910361 , version 1 (22-12-2022)

Identifiants

Citer

Donia Bouzid, Jimmy Mullaert, Aiham Ghazali, Valentine Marie Ferré, France Mentré, et al.. eOSCE stations live versus remote evaluation and scores variability. BMC Medical Education, 2022, 22 (1), pp.861. ⟨10.1186/s12909-022-03919-1⟩. ⟨hal-03910361⟩
43 Consultations
0 Téléchargements

Altmetric

Partager

Gmail Facebook X LinkedIn More