Interbedømmeroverenskomst

Kommando: Tests
Interbedømmeroverenskomst

Beskrivelse

Brug Interbedømmeroverenskomst til at evaluere overenskomsten mellem to klassifikationer (nominelle eller ordinale skalaer).

Hvis de rå data er tilgængelige i regnearket, skal du bruge Inter-rater agreement i menuen Statistics til at oprette klassifikationstabellen og beregne Kappa (Cohen 1960; Cohen 1968; Fleiss et al.., 2003).

Overensstemmelsen kvantificeres ved hjælp af Kappa (K)-statistikken:

  • K er 1, når der er perfekt overensstemmelse mellem klassifikationssystemerne
  • K er 0, når der ikke er nogen overensstemmelse bedre end tilfældighederne
  • K er negativ, når overensstemmelsen er dårligere end tilfældighederne.

Krævet input

I dialogformularen kan du indtaste de to klassifikationssystemer i en 6×6-frekvenstabel. Vælg Weighted Kappa (Cohen 1968), hvis dataene kommer fra en ordnet skala. Hvis dataene kommer fra en nominel skala, skal du ikke vælge Weighted Kappa. Vælg lineære vægte, når forskellen mellem første og andenkategori har samme betydning som en forskel mellem anden og tredjekategori osv. Hvis forskellen mellem den første og anden kategori er mindre vigtig end en forskel mellem den anden og tredje kategori, osv, anvendes kvadratiske vægte.

I dette eksempel har observatør A ud af de 6 tilfælde, som observatør B har placeret i klasse 1, placeret 5 i klasse 1 og 1 i klasse 2; ud af de 19 tilfælde, som observatør B har placeret i klasse 2, har observatør A placeret 3 i klasse 1, 12 i klasse 2 og 4 i klasse 3; og ud af de 12 tilfælde, som observatør B har placeret i klasse 3, har observatør A placeret 2 i klasse 1, 2 i klasse 2 og 8 i klasse 3.

Når du har indtastet dataene, skal du klikke på knappen Test. Programmet vil vise værdien for Kappa med dens standardfejl og 95% konfidensinterval (CI).

MedCalc beregner interbedømmeroverensstemmelsesstatistikken Kappa i henhold til Cohen, 1960; og vægtet Kappa i henhold til Cohen, 1968. Beregningsdetaljer er også givet i Altman, 1991 (s. 406-407). Standardfejlen og 95 % konfidensintervallet beregnes i henhold til Fleiss et al., 2003.

Standardfejlene rapporteret af MedCalc er de passende standardfejl til at teste hypotesen om, at den underliggende værdi af vægtet kappa er lig med en forudspecificeret værdi forskellig fra nul (Fleiss et al., 2003).

K-værdien kan fortolkes på følgende måde (Altman, 1991):

Værdi af K Styrke af overensstemmelse
< 0.20 Middelmådig
0,21 – 0,40 Middelmådig
0,41 – 0,60 Middelmådig
0.61 – 0,80 God
0,81 – 1,00 Meget god

I indtastningsfeltet Kommentar kan du indtaste en kommentar eller konklusion, som vil blive medtaget på den udskrevne rapport.

Litteratur

  • Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
  • Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement, 20:37-46.
  • Cohen J (1968) Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin 70:213-220.
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.