Interbeoordelaarsovereenstemming

Command: Tests
Interbeoordelaarsovereenstemming

Beschrijving

Gebruik Interbeoordelaarsovereenstemming om de overeenstemming tussen twee classificaties (nominale of ordinale schalen) te evalueren.

Als de ruwe gegevens beschikbaar zijn in het spreadsheet, gebruikt u Interbeoordelaarsovereenstemming in het menu Statistieken om de classificatietabel te maken en Kappa te berekenen (Cohen 1960; Cohen 1968; Fleiss et al, 2003).

Overeenstemming wordt gekwantificeerd door de Kappa (K) statistiek:

  • K is 1 wanneer er perfecte overeenstemming is tussen de classificatiesystemen
  • K is 0 wanneer er geen overeenstemming is die beter is dan toeval
  • K is negatief wanneer de overeenstemming slechter is dan toeval.

Verplichte invoer

In het dialoogformulier kunt u de twee classificatiesystemen invoeren in een 6×6 frequentietabel.

Selecteer Gewogen Kappa (Cohen 1968) als de gegevens afkomstig zijn van een geordende schaal. Als de gegevens afkomstig zijn van een nominale schaal, selecteer dan geen Weighted Kappa.

Gebruik lineaire gewichten als het verschil tussen de eerste en de tweede categorie even belangrijk is als een verschil tussen de tweede en de derde categorie, enz. Als het verschil tussen de eerste en tweede categorie minder belangrijk is dan een verschil tussen de tweede en derde categorie, enz,

In dit voorbeeld heeft waarnemer A van de 6 gevallen die waarnemer B in klasse 1 heeft geplaatst, er 5 in klasse 1 en 1 in klasse 2 geplaatst; van de 19 gevallen die waarnemer B in klasse 2 heeft geplaatst, heeft waarnemer A er 3 in klasse 1, 12 in klasse 2 en 4 in klasse 3 geplaatst; en van de 12 gevallen die waarnemer B in klasse 3 heeft geplaatst, heeft waarnemer A er 2 in klasse 1, 2 in klasse 2 en 8 in klasse 3 geplaatst.

Nadat u de gegevens hebt ingevoerd, klikt u op de knop Test. Het programma toont de waarde voor Kappa met zijn standaardfout en 95% betrouwbaarheidsinterval (CI).

MedCalc berekent de interbeoordelaarsovereenstemmingsstatistiek Kappa volgens Cohen, 1960; en de gewogen Kappa volgens Cohen, 1968. Computationele details worden ook gegeven in Altman, 1991 (p. 406-407). De standaardfout en het 95%-betrouwbaarheidsinterval zijn berekend volgens Fleiss et al., 2003.

De door MedCalc gerapporteerde standaardfouten zijn de juiste standaardfouten voor het toetsen van de hypothese dat de onderliggende waarde van gewogen kappa gelijk is aan een vooraf gespecificeerde waarde anders dan nul (Fleiss et al., 2003).

De K-waarde kan als volgt worden geïnterpreteerd (Altman, 1991):

Value of K Strength of agreement
< 0.20 Slecht
0.21 – 0.40 Goed
0.41 – 0.60 Gemiddeld
0.61 – 0.80 Goed
0.81 – 1.00 Zeer goed

In het invoerveld Commentaar kunt u een opmerking of conclusie invoeren die op het afgedrukte rapport komt te staan.

Literatuur

  • Altman DG (1991) Practical statistics for medical research. Londen: Chapman and Hall.
  • Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement, 20:37-46.
  • Cohen J (1968) Weighted kappa: nominale schaal overeenkomst met voorziening voor geschaalde onenigheid of gedeeltelijke credit. Psychologisch Bulletin 70:213-220.
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.