Accord inter-juges

Commande: Tests
Accord inter-juges

Description

Utilisez l’accord inter-juges pour évaluer l’accord entre deux classifications (échelles nominales ou ordinales).

Si les données brutes sont disponibles dans la feuille de calcul, utilisez Accord inter-juges dans le menu Statistiques pour créer le tableau de classification et calculer le Kappa (Cohen 1960 ; Cohen 1968 ; Fleiss et al, 2003).

L’accord est quantifié par la statistique Kappa (K) :

  • K est égal à 1 lorsqu’il y a un accord parfait entre les systèmes de classification
  • K est égal à 0 lorsqu’il n’y a pas d’accord meilleur que le hasard
  • K est négatif lorsque l’accord est pire que le hasard.

Saisie requise

Dans le formulaire de dialogue, vous pouvez saisir les deux systèmes de classification dans un tableau de fréquence 6×6.

Sélectionnez le Kappa pondéré (Cohen 1968) si les données proviennent d’une échelle ordonnée. Si les données proviennent d’une échelle nominale, ne sélectionnez pas le Kappa pondéré.

Utilisez des pondérations linéaires lorsque la différence entre la première et la deuxièmecatégorie a la même importance qu’une différence entre la deuxième et la troisièmecatégorie, etc. Si la différence entre la première et la deuxième catégorie a moins d’importance qu’une différence entre la deuxième et la troisième catégorie, etc, utilisez des poids quadratiques.

Dans cet exemple, parmi les 6 cas que l’observateur B a placés dans la classe 1, l’observateur A en a placé 5 dans la classe 1 et 1 dans la classe 2 ; parmi les 19 cas que l’observateur B a placés dans la classe 2, l’observateur A en a placé 3 dans la classe 1, 12 dans la classe 2 et 4 dans la classe 3 ; et parmi les 12 cas que l’observateur B a placés dans la classe 3, l’observateur A en a placé 2 dans la classe 1, 2 dans la classe 2 et 8 dans la classe 3.

Après avoir saisi les données, cliquez sur le bouton Test. Le programme affichera la valeur de Kappa avec son erreur standard et son intervalle de confiance (IC) à 95%.

MedCalc calcule la statistique d’accord inter-juges Kappa selon Cohen, 1960 ; et le Kappa pondéré selon Cohen, 1968. Des détails de calcul sont également donnés dans Altman, 1991 (p. 406-407). L’erreur standard et l’intervalle de confiance à 95 % sont calculés selon Fleiss et al., 2003.

Les erreurs standard signalées par MedCalc sont les erreurs standard appropriées pour tester l’hypothèse selon laquelle la valeur sous-jacente du kappa pondéré est égale à une valeur préspécifiée autre que zéro (Fleiss et al, 2003).

La valeur de K peut être interprétée comme suit (Altman, 1991):

Valeur de K Force de l’accord
< 0.20 Pauvre
0,21 – 0,40 Parfait
0,41 – 0,60 Modéré
0.61 – 0,80 Bon
0,81 – 1,00 Très bon

Dans le champ de saisie Commentaire, vous pouvez saisir un commentaire ou une conclusion qui sera inclus dans le rapport imprimé.

Littérature

  • Altman DG (1991) Practical statistics for medical research. Londres : Chapman and Hall.
  • Cohen J (1960) Un coefficient d’accord pour les échelles nominales. Educational and Psychological Measurement, 20:37-46.
  • Cohen J (1968) Weighted kappa : nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin 70:213-220.
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken : John Wiley & Sons.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.