Acordo entre avaliadores

Command: Testes
Acordo entre avaliadores

Descrição

Utilizar acordo entre avaliadores para avaliar o acordo entre duas classificações (escala nominal ou ordinal).

Se os dados brutos estiverem disponíveis na planilha, use o acordo entre os avaliadores no menu Estatísticas para criar a tabela de classificação e calcular a Kappa (Cohen 1960; Cohen 1968; Fleiss et al, 2003).

Acordo é quantificado pela estatística Kappa (K):

  • K é 1 quando há perfeita concordância entre os sistemas de classificação
  • K é 0 quando não há concordância melhor que o acaso
  • K é negativo quando a concordância é pior que o acaso.

Entrada necessária

No formulário de diálogo você pode entrar com os dois sistemas de classificação em uma tabela de freqüência 6×6.

Select Weighted Kappa (Cohen 1968) se os dados vierem de uma escala ordenada. Se os dados vierem de uma escala nominal, não selecione Weighted Kappa.

Usar pesos lineares quando a diferença entre a primeira e a segunda categoria tiver a mesma importância que uma diferença entre a segunda e a terceira categoria, etc. Se a diferença entre a primeira e a segunda categoria for menos importante que uma diferença entre a segunda e terceira categoria, etc.., use pesos quadráticos.

Neste exemplo, dos 6 casos que o observador B colocou na classe 1, o observador A colocou 5 na classe 1 e 1 na classe 2; dos 19 casos que o observador B colocou na classe 2, o observador A colocou 3 na classe 1, 12 na classe 2 e 4 na classe 3; e dos 12 casos que o observador B colocou na classe 3, o observador A colocou 2 na classe 1, 2 na classe 2 e 8 na classe 3.

Após ter inserido os dados, clique no botão Teste. O programa exibirá o valor para Kappa com seu erro padrão e intervalo de confiança de 95% (CI).

MedCalc calcula a estatística de concordância inter-atores Kappa de acordo com Cohen, 1960; e ponderou Kappa de acordo com Cohen, 1968. Detalhes computacionais também são dados em Altman, 1991 (p. 406-407). O erro padrão e o intervalo de confiança de 95% são calculados de acordo com Fleiss et al., 2003.

Os erros padrão reportados pelo MedCalc são os erros padrão apropriados para testar a hipótese de que o valor subjacente da Kappa ponderada é igual a um valor pré-especificado diferente de zero (Fleiss et al.., 2003).

O valor K pode ser interpretado da seguinte forma (Altman, 1991):

Valor de K Força de concordância
< 0.20 Pobre
0,21 – 0,40 Fair
0,41 – 0,60 Moderar
0.61 – 0,80 Bom
0,81 – 1,00 Muito bom

No campo de entrada Comentário pode introduzir um comentário ou conclusão que será incluído no relatório impresso.

Literatura

  • Altman DG (1991) Estatísticas práticas para investigação médica. Londres: Chapman e Hall.
  • Cohen J (1960) Um coeficiente de concordância para as escalas nominais. Medida pedagógica e psicológica, 20:37-46.
  • Cohen J (1968) Kappa ponderado: concordância de escala nominal com provisão para discordância de escala ou crédito parcial. Boletim Psicológico 70:213-220.
  • Fleiss JL, Levin B, Paik MC (2003) Métodos estatísticos para taxas e proporções, 3ª ed. Hoboken: John Wiley & Sons.

Deixe uma resposta

O seu endereço de email não será publicado.