評価者間一致

コマンド: テスト
評価者間一致

説明

2 分類(名目または順序尺度)間の一致度を評価するのに評価者間一致を使ってください。

スプレッドシートで生データが利用できる場合、「統計」メニューの「評価者間一致」を使用して分類表を作成し、カッパを計算します (Cohen 1960; Cohen 1968; Fleiss et al.,

一致度はカッパ(K)統計量によって定量化される:

  • Kは分類システム間で完全に一致するとき1
  • Kは偶然より一致しないとき0
  • Kは偶然より悪いとき負である。

必要な入力

ダイアログフォームで、6×6の度数表で2つの分類体系を入力できます。

データが順序尺度から来る場合は重み付けカッパ(コーエン 1968)を選択します。

第1カテゴリーと第2カテゴリーの差が第2カテゴリーと第3カテゴリーの差と同じ重要性を持つ場合、線形重みを使用する、など。 第1カテゴリと第2カテゴリの差が第2カテゴリと第3カテゴリの差より重要度が低い場合など。

この例では、観察者Bがクラス1に配置した6件から、観察者Aがクラス1に5、クラス2に1、観察者Bがクラス2に配置した19件から、観察者Aがクラス1に3、クラス2に12、クラス3に4、観察者Bがクラス3に配置した12件から、観察者がクラス1に2、クラス2に2、クラス3に8配置していることがわかる。

データを入力したら、テストボタンをクリックします。

MedCalcはCohen, 1960に従って評価者間一致統計量Kappaを計算し、Cohen, 1968に従って重み付けKappaを計算する。 計算の詳細はAltman, 1991 (p.406-407)にも記載されています。 標準誤差と95%信頼区間はFleiss et al., 2003に従って計算されている。

MedCalcが報告する標準誤差は、重み付きカッパの基礎値がゼロ以外の事前に指定した値に等しいという仮説を検定するための適切な標準誤差である(Fleiss et al., 2003, 2003)。

K値は次のように解釈できる(Altman, 1991):

Kの値 一致度の強さ
< 0.20 Poor
0.21 – 0.40 Fair
0.41 – 0.60 Moderate
0.60 0.61 – 0.80 Good
0.81 – 1.00 Very good

コメントの入力フィールドに、印刷したレポートに含まれるコメントまたは結論が入力できます。 London: Chapman and Hall.

  • Cohen J (1960) A coefficient of agreement for nominal scales.
  • Cohen J (1968) Weighted kappa: Scaled disagreement or partial creditの規定を伴う名目尺度の一致度.尤度,20:37-46. Psychological Bulletin 70:213-220.
  • Fleiss JL, Levin B, Paik MC (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken.日本経済新聞社。 John Wiley & Sons.
  • コメントを残す

    メールアドレスが公開されることはありません。