Interbedömaröverenskommelse

Kommando: Tester
Interbedömaröverenskommelse

Beskrivning

Använd Interbedömaröverenskommelse för att utvärdera överenstämmelsen mellan två klassificeringar (nominella eller ordinala skalor).

Om rådata finns tillgängliga i kalkylbladet, använd Inter-rater agreement i menyn Statistics för att skapa klassificeringstabellen och beräkna Kappa (Cohen 1960; Cohen 1968; Fleiss m.fl, 2003).

Anslutningen kvantifieras med statistiken Kappa (K):

  • K är 1 när det finns en perfekt överensstämmelse mellan klassificeringssystemen
  • K är 0 när det inte finns någon överensstämmelse som är bättre än slumpen
  • K är negativ när överensstämmelsen är sämre än slumpen.

Krävda indata

I dialogformuläret kan du ange de två klassificeringssystemen i en 6×6-frekvenstabell.

Välj Weighted Kappa (Cohen 1968) om uppgifterna kommer från en ordnad skala. Om uppgifterna kommer från en nominell skala, välj inte Weighted Kappa. Använd linjära vikter när skillnaden mellan den första och andra kategorin har samma betydelse som en skillnad mellan den andra och tredje kategorin, osv. Om skillnaden mellan den första och andra kategorin är mindre viktig än en skillnad mellan den andra och tredje kategorin, osv, Använd kvadratiska vikter.

I detta exempel har observatör A placerat 5 av de 6 fall som observatör B har placerat i klass 1 i klass 1 och 1 i klass 2; av de 19 fall som observatör B har placerat i klass 2 har observatör A placerat 3 i klass 1, 12 i klass 2 och 4 i klass 3; och av de 12 fall som observatör B har placerat i klass 3 har observatör A placerat 2 i klass 1, 2 i klass 2 och 8 i klass 3.

När du har angett uppgifterna klickar du på knappen Test. Programmet kommer att visa värdet för Kappa med dess standardfel och 95 % konfidensintervall (CI).

MedCalc beräknar statistiken för interbedömaröverensstämmelse Kappa enligt Cohen, 1960; och viktad Kappa enligt Cohen, 1968. Beräkningsuppgifter finns också i Altman, 1991 (s. 406-407). Standardfelet och 95 % konfidensintervallet beräknas enligt Fleiss et al., 2003.

Standardfelen som rapporteras av MedCalc är de lämpliga standardfelen för att testa hypotesen att det underliggande värdet av viktad kappa är lika med ett förspecificerat värde annat än noll (Fleiss et al., 2003).

K-värdet kan tolkas på följande sätt (Altman, 1991):

Värde av K Strängden av överensstämmelse
< 0.20 Sämre
0,21 – 0,40 Måttlig
0,41 – 0,60 Måttlig
0.61 – 0,80 God
0,81 – 1,00 Mycket god

I inmatningsfältet Kommentar kan du skriva in en kommentar eller en slutsats som kommer att finnas med på den utskrivna rapporten.

Litteratur

  • Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
  • Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement, 20:37-46.
  • Cohen J (1968) Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin 70:213-220.
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.

Lämna ett svar

Din e-postadress kommer inte publiceras.