Umowa między jednostkami oceniającymi

Polecenie: Testy
Umowa między jednostkami oceniającymi

Opis

Użyj umowy między jednostkami oceniającymi do oceny zgodności między dwiema klasyfikacjami (skalami nominalnymi lub porządkowymi).

Jeśli surowe dane są dostępne w arkuszu kalkulacyjnym, użyj opcji Inter-rater agreement w menu Statistics, aby utworzyć tabelę klasyfikacji i obliczyć Kappa (Cohen 1960; Cohen 1968; Fleiss et al., 2003).

Zgodność jest określana ilościowo przez statystykę Kappa (K):

  • K wynosi 1, gdy istnieje doskonała zgodność między systemami klasyfikacji
  • K wynosi 0, gdy nie ma zgodności lepszej niż przypadkowa
  • K jest ujemna, gdy zgodność jest gorsza niż przypadkowa.

Wymagane dane wejściowe

W formularzu dialogowym można wprowadzić dwa systemy klasyfikacji w tabeli częstotliwości 6×6.

Wybierz Kappa ważona (Cohen 1968), jeśli dane pochodzą ze skali uporządkowanej. Jeśli dane pochodzą ze skali nominalnej, nie należy wybierać Weighted Kappa.

Użyj wag liniowych, gdy różnica między pierwszą a drugą kategorią ma takie samo znaczenie jak różnica między drugą a trzecią kategorią itd. Jeśli różnica między pierwszą i drugą kategorią jest mniej ważna niż różnica między drugą i trzecią kategorią, itd, użyj kwadratowych wag.

W tym przykładzie, z 6 przypadków, które obserwator B umieścił w klasie 1, obserwator A umieścił 5 w klasie 1 i 1 w klasie 2; z 19 przypadków, które obserwator B umieścił w klasie 2, obserwator A umieścił 3 w klasie 1, 12 w klasie 2 i 4 w klasie 3; i z 12 przypadków, które obserwator B umieścił w klasie 3, obserwator A umieścił 2 w klasie 1, 2 w klasie 2 i 8 w klasie 3.

Po wprowadzeniu danych kliknij przycisk Test. Program wyświetli wartość współczynnika Kappa wraz z jego błędem standardowym i 95% przedziałem ufności (CI).

MedCalc oblicza statystykę zgodności międzyosobniczej Kappa zgodnie z Cohen, 1960; i ważoną Kappa zgodnie z Cohen, 1968. Szczegóły obliczeń są również podane w Altman, 1991 (str. 406-407). Błąd standardowy i 95% przedział ufności obliczono według Fleiss et al., 2003.

Błędy standardowe podane przez MedCalc są odpowiednimi błędami standardowymi do testowania hipotezy, że podstawowa wartość ważonej kappa jest równa wstępnie określonej wartości innej niż zero (Fleiss et al., 2003).

Wartość K może być interpretowana w następujący sposób (Altman, 1991):

Wartość K Siła porozumienia
< 0.20 Poor
0,21 – 0,40 Fair
0,41 – 0,60 Moderate
0.61 – 0.80 Good
0.81 – 1.00 Very good

W polu Comment input można wpisać komentarz lub wniosek, który zostanie umieszczony na wydrukowanym raporcie.

Literatura

  • Altman DG (1991) Practical statistics for medical research. London: Chapman and Hall.
  • Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement, 20:37-46.
  • Cohen J (1968) Weighted kappa: nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin 70:213-220.
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.