Comandă: | Teste Acord între evaluatori |
Descriere
Utilizați Acordul între evaluatori pentru a evalua acordul dintre două clasificări (scale nominale sau ordinale).
Dacă datele brute sunt disponibile în foaia de calcul, utilizați Inter-rater agreement în meniul Statistics pentru a crea tabelul de clasificare și a calcula Kappa (Cohen 1960; Cohen 1968; Fleiss et al, 2003).
Acordul este cuantificat prin statistica Kappa (K):
- K este 1 atunci când există un acord perfect între sistemele de clasificare
- K este 0 atunci când nu există un acord mai bun decât întâmplarea
- K este negativ atunci când acordul este mai rău decât întâmplarea.
Intrare necesară
În formularul de dialog puteți introduce cele două sisteme de clasificare într-un tabel de frecvențe 6×6.
Selectați Kappa ponderat (Cohen 1968) dacă datele provin dintr-o scară ordonată. Dacă datele provin de pe o scală nominală, nu selectați Weighted Kappa.
Utilizați ponderi liniare atunci când diferența dintre prima și a doua categorie are aceeași importanță ca și diferența dintre a doua și a treia categorie, etc. Dacă diferența dintre prima și a doua categorie are mai puținăimportanță decât o diferență între a doua și a treia categorie, etc., utilizați ponderi pătratice.
În acest exemplu, din cele 6 cazuri pe care observatorul B le-a plasat în clasa 1, observatorul A a plasat 5 în clasa 1 și 1 în clasa 2; din cele 19 cazuri pe care observatorul B le-a plasat în clasa 2, observatorul A a plasat 3 în clasa 1, 12 în clasa 2 și 4 în clasa 3; și din cele 12 cazuri pe care observatorul B le-a plasat în clasa 3, observatorul A a plasat 2 în clasa 1, 2 în clasa 2 și 8 în clasa 3.
După ce ați introdus datele, faceți clic pe butonul Test. Programul va afișa valoarea pentru Kappa cu eroarea sa standard și intervalul de încredere (IC) de 95%.
MedCalc calculează statistica de concordanță inter-evaluator Kappa conform Cohen, 1960; și Kappa ponderat conform Cohen, 1968. Detaliile de calcul sunt oferite și în Altman, 1991 (p. 406-407). Eroarea standard și intervalul de încredere de 95% sunt calculate în conformitate cu Fleiss et al., 2003.
Erorile standard raportate de MedCalc sunt erorile standard adecvate pentru testarea ipotezei că valoarea subiacentă a kappa ponderat este egală cu o valoare prestabilită, alta decât zero (Fleiss et al., 2003).
Valoarea K poate fi interpretată după cum urmează (Altman, 1991):
Valoarea lui K | Forța acordului |
---|---|
< 0.20 | Poor |
0,21 – 0,40 | Fair |
0,41 – 0,60 | Moderat |
0.61 – 0,80 | Bună |
0,81 – 1,00 | Mult bună |
În câmpul de introducere a comentariilor puteți introduce un comentariu sau o concluzie care va fi inclusă pe raportul tipărit.
Literatură
- Altman DG (1991) Practical statistics for medical research. Londra: Chapman and Hall.
- Cohen J (1960) Un coeficient de acord pentru scalele nominale. Educational and Psychological Measurement, 20:37-46.
- Cohen J (1968) Coeficientul kappa ponderat: acord pe scală nominală cu prevederi pentru dezacord scalar sau credit parțial. Psychological Bulletin 70:213-220.
- Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.