Ráírók közötti egyezés

Parancs: Tesztek
Ráírók közötti egyezés

leírás

A ráírók közötti egyezés segítségével két osztályozás (nominális vagy ordinális skálák) közötti egyezést értékelhetjük.

Ha a nyers adatok rendelkezésre állnak a táblázatkezelőben, akkor a Statisztika menüpontban az Inter-rater agreement segítségével hozza létre az osztályozási táblázatot és számítsa ki a Kappát (Cohen 1960; Cohen 1968; Fleiss et al, 2003).

Az egyezést a Kappa (K) statisztikával számszerűsítjük:

  • K 1, ha az osztályozási rendszerek között tökéletes az egyezés
  • K 0, ha nincs a véletlennél jobb egyezés
  • K negatív, ha az egyezés rosszabb a véletlennél.

Szükséges bemenet

A párbeszédablakban egy 6×6-os gyakorisági táblázatban adhatja meg a két osztályozási rendszert.

Válassza a súlyozott Kappát (Cohen 1968), ha az adatok rendezett skáláról származnak. Ha az adatok nominális skáláról származnak, ne válassza a súlyozott Kappát.

Lineráris súlyokat használjon, ha az első és a második kategória közötti különbség ugyanolyan fontos, mint a második és a harmadik kategória közötti különbség stb. Ha az első és a második kategória közötti különbség kevésbé fontos, mint a második és a harmadik kategória közötti különbség stb, használjunk négyzetes súlyokat.

Ebben a példában a 6 esetből, amelyet B megfigyelő az 1. osztályba sorolt, A megfigyelő 5 esetet sorolt az 1. osztályba és 1-et a 2. osztályba; a 19 esetből, amelyet B megfigyelő a 2. osztályba sorolt, A megfigyelő 3-at sorolt az 1. osztályba, 12-t a 2. osztályba és 4-et a 3. osztályba; és a 12 esetből, amelyet B megfigyelő a 3. osztályba sorolt, A megfigyelő 2-et sorolt az 1. osztályba, 2-et a 2. osztályba és 8-at a 3. osztályba.

Az adatok megadása után kattintson a Teszt gombra. A program megjeleníti a Kappa értékét a standard hibával és a 95%-os konfidenciaintervallummal (CI) együtt.

AMedCalc kiszámítja a Kappa értéket az értékelők közötti egyezés statisztikáját Cohen, 1960 szerint; és a súlyozott Kappát Cohen, 1968 szerint. A számítási részleteket Altman, 1991 (406-407. o.) is ismerteti. A standard hiba és a 95%-os konfidenciaintervallum kiszámítása Fleiss et al., 2003 szerint történik.

A MedCalc által közölt standard hibák a megfelelő standard hibák annak a hipotézisnek a tesztelésére, hogy a súlyozott kappa alapértéke egyenlő egy előre meghatározott, nullától eltérő értékkel (Fleiss et al., 2003).

A K érték a következőképpen értelmezhető (Altman, 1991):

K értéke Az egyezés erőssége
< 0.20 Szegény
0,21 – 0,40 Megfelelő
0,41 – 0,60 Mérsékelt
0.61 – 0.80
0.81 – 1.00 Nagyon jó

A megjegyzés beviteli mezőben megadhat egy megjegyzést vagy következtetést, amely a nyomtatott jelentésben is szerepel.

Irodalom

  • Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
  • Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement, 20:37-46.
  • Cohen J (1968) Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin 70:213-220.
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.