Parancs: | Tesztek Ráírók közötti egyezés |
leírás
A ráírók közötti egyezés segítségével két osztályozás (nominális vagy ordinális skálák) közötti egyezést értékelhetjük.
Ha a nyers adatok rendelkezésre állnak a táblázatkezelőben, akkor a Statisztika menüpontban az Inter-rater agreement segítségével hozza létre az osztályozási táblázatot és számítsa ki a Kappát (Cohen 1960; Cohen 1968; Fleiss et al, 2003).
Az egyezést a Kappa (K) statisztikával számszerűsítjük:
- K 1, ha az osztályozási rendszerek között tökéletes az egyezés
- K 0, ha nincs a véletlennél jobb egyezés
- K negatív, ha az egyezés rosszabb a véletlennél.
Szükséges bemenet
A párbeszédablakban egy 6×6-os gyakorisági táblázatban adhatja meg a két osztályozási rendszert.
Válassza a súlyozott Kappát (Cohen 1968), ha az adatok rendezett skáláról származnak. Ha az adatok nominális skáláról származnak, ne válassza a súlyozott Kappát.
Lineráris súlyokat használjon, ha az első és a második kategória közötti különbség ugyanolyan fontos, mint a második és a harmadik kategória közötti különbség stb. Ha az első és a második kategória közötti különbség kevésbé fontos, mint a második és a harmadik kategória közötti különbség stb, használjunk négyzetes súlyokat.
Ebben a példában a 6 esetből, amelyet B megfigyelő az 1. osztályba sorolt, A megfigyelő 5 esetet sorolt az 1. osztályba és 1-et a 2. osztályba; a 19 esetből, amelyet B megfigyelő a 2. osztályba sorolt, A megfigyelő 3-at sorolt az 1. osztályba, 12-t a 2. osztályba és 4-et a 3. osztályba; és a 12 esetből, amelyet B megfigyelő a 3. osztályba sorolt, A megfigyelő 2-et sorolt az 1. osztályba, 2-et a 2. osztályba és 8-at a 3. osztályba.
Az adatok megadása után kattintson a Teszt gombra. A program megjeleníti a Kappa értékét a standard hibával és a 95%-os konfidenciaintervallummal (CI) együtt.
AMedCalc kiszámítja a Kappa értéket az értékelők közötti egyezés statisztikáját Cohen, 1960 szerint; és a súlyozott Kappát Cohen, 1968 szerint. A számítási részleteket Altman, 1991 (406-407. o.) is ismerteti. A standard hiba és a 95%-os konfidenciaintervallum kiszámítása Fleiss et al., 2003 szerint történik.
A MedCalc által közölt standard hibák a megfelelő standard hibák annak a hipotézisnek a tesztelésére, hogy a súlyozott kappa alapértéke egyenlő egy előre meghatározott, nullától eltérő értékkel (Fleiss et al., 2003).
A K érték a következőképpen értelmezhető (Altman, 1991):
K értéke | Az egyezés erőssége |
---|---|
< 0.20 | Szegény |
0,21 – 0,40 | Megfelelő |
0,41 – 0,60 | Mérsékelt |
0.61 – 0.80 | Jó |
0.81 – 1.00 | Nagyon jó |
A megjegyzés beviteli mezőben megadhat egy megjegyzést vagy következtetést, amely a nyomtatott jelentésben is szerepel.
Irodalom
- Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
- Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement, 20:37-46.
- Cohen J (1968) Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin 70:213-220.
- Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.