Inter-rater agreement

Comando: Test
Inter-rater agreement

Descrizione

Utilizza Inter-rater agreement per valutare l’accordo tra due classificazioni (scale nominali o ordinali).

Se i dati grezzi sono disponibili nel foglio di calcolo, usate l’Accordo inter-rater nel menu Statistiche per creare la tabella di classificazione e calcolare il Kappa (Cohen 1960; Cohen 1968; Fleiss et al, 2003).

L’accordo è quantificato dalla statistica Kappa (K):

  • K è 1 quando c’è perfetto accordo tra i sistemi di classificazione
  • K è 0 quando non c’è accordo migliore del caso
  • K è negativo quando l’accordo è peggiore del caso.

Input richiesti

Nel modulo di dialogo puoi inserire i due sistemi di classificazione in una tabella di frequenza 6×6.

Seleziona Weighted Kappa (Cohen 1968) se i dati provengono da una scala ordinata. Se i dati provengono da una scala nominale, non selezionare Weighted Kappa.

Utilizzare pesi lineari quando la differenza tra la prima e la seconda categoria ha la stessa importanza della differenza tra la seconda e la terza categoria, ecc. Se la differenza tra la prima e la seconda categoria è meno importante di una differenza tra la seconda e la terza categoria, ecc, usare pesi quadratici.

In questo esempio, dei 6 casi che l’osservatore B ha messo in classe 1, l’osservatore A ne ha messi 5 in classe 1 e 1 in classe 2; dei 19 casi che l’osservatore B ha messo in classe 2, l’osservatore A ne ha messi 3 in classe 1, 12 in classe 2 e 4 in classe 3; e dei 12 casi che l’osservatore B ha messo in classe 3, l’osservatore A ne ha messi 2 in classe 1, 2 in classe 2 e 8 in classe 3.

Dopo aver inserito i dati, cliccate sul pulsante Test. Il programma visualizzerà il valore di Kappa con il suo errore standard e l’intervallo di confidenza al 95% (CI).

MedCalc calcola la statistica di accordo inter-rater Kappa secondo Cohen, 1960; e Kappa ponderata secondo Cohen, 1968. I dettagli di calcolo sono forniti anche in Altman, 1991 (p. 406-407). L’errore standard e l’intervallo di confidenza al 95% sono calcolati secondo Fleiss et al., 2003.

Gli errori standard riportati da MedCalc sono gli errori standard appropriati per testare l’ipotesi che il valore sottostante del kappa ponderato sia uguale a un valore prespecificato diverso da zero (Fleiss et al, 2003).

Il valore K può essere interpretato come segue (Altman, 1991):

Valore di K Forza di accordo
< 0.20 Scadente
0.21 – 0.40 Bene
0.41 – 0.60 Moderato
0.61 – 0.80 Buono
0.81 – 1.00 Molto buono

Nel campo di input Commento è possibile inserire un commento o una conclusione che sarà inclusa nel rapporto stampato.

Letteratura

  • Altman DG (1991) Practical statistics for medical research. Londra: Chapman and Hall.
  • Cohen J (1960) Un coefficiente di accordo per scale nominali. Educational and Psychological Measurement, 20:37-46.
  • Cohen J (1968) Kappa ponderato: accordo su scala nominale con disposizione per disaccordo scalare o credito parziale. Bollettino psicologico 70:213-220.
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.