Acord între evaluatori

Comandă: Teste
Acord între evaluatori

Descriere

Utilizați Acordul între evaluatori pentru a evalua acordul dintre două clasificări (scale nominale sau ordinale).

Dacă datele brute sunt disponibile în foaia de calcul, utilizați Inter-rater agreement în meniul Statistics pentru a crea tabelul de clasificare și a calcula Kappa (Cohen 1960; Cohen 1968; Fleiss et al, 2003).

Acordul este cuantificat prin statistica Kappa (K):

  • K este 1 atunci când există un acord perfect între sistemele de clasificare
  • K este 0 atunci când nu există un acord mai bun decât întâmplarea
  • K este negativ atunci când acordul este mai rău decât întâmplarea.

Intrare necesară

În formularul de dialog puteți introduce cele două sisteme de clasificare într-un tabel de frecvențe 6×6.

Selectați Kappa ponderat (Cohen 1968) dacă datele provin dintr-o scară ordonată. Dacă datele provin de pe o scală nominală, nu selectați Weighted Kappa.

Utilizați ponderi liniare atunci când diferența dintre prima și a doua categorie are aceeași importanță ca și diferența dintre a doua și a treia categorie, etc. Dacă diferența dintre prima și a doua categorie are mai puținăimportanță decât o diferență între a doua și a treia categorie, etc., utilizați ponderi pătratice.

În acest exemplu, din cele 6 cazuri pe care observatorul B le-a plasat în clasa 1, observatorul A a plasat 5 în clasa 1 și 1 în clasa 2; din cele 19 cazuri pe care observatorul B le-a plasat în clasa 2, observatorul A a plasat 3 în clasa 1, 12 în clasa 2 și 4 în clasa 3; și din cele 12 cazuri pe care observatorul B le-a plasat în clasa 3, observatorul A a plasat 2 în clasa 1, 2 în clasa 2 și 8 în clasa 3.

După ce ați introdus datele, faceți clic pe butonul Test. Programul va afișa valoarea pentru Kappa cu eroarea sa standard și intervalul de încredere (IC) de 95%.

MedCalc calculează statistica de concordanță inter-evaluator Kappa conform Cohen, 1960; și Kappa ponderat conform Cohen, 1968. Detaliile de calcul sunt oferite și în Altman, 1991 (p. 406-407). Eroarea standard și intervalul de încredere de 95% sunt calculate în conformitate cu Fleiss et al., 2003.

Erorile standard raportate de MedCalc sunt erorile standard adecvate pentru testarea ipotezei că valoarea subiacentă a kappa ponderat este egală cu o valoare prestabilită, alta decât zero (Fleiss et al., 2003).

Valoarea K poate fi interpretată după cum urmează (Altman, 1991):

Valoarea lui K Forța acordului
< 0.20 Poor
0,21 – 0,40 Fair
0,41 – 0,60 Moderat
0.61 – 0,80 Bună
0,81 – 1,00 Mult bună

În câmpul de introducere a comentariilor puteți introduce un comentariu sau o concluzie care va fi inclusă pe raportul tipărit.

Literatură

  • Altman DG (1991) Practical statistics for medical research. Londra: Chapman and Hall.
  • Cohen J (1960) Un coeficient de acord pentru scalele nominale. Educational and Psychological Measurement, 20:37-46.
  • Cohen J (1968) Coeficientul kappa ponderat: acord pe scală nominală cu prevederi pentru dezacord scalar sau credit parțial. Psychological Bulletin 70:213-220.
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.

Lasă un răspuns

Adresa ta de email nu va fi publicată.