Command: | Testes Acordo entre avaliadores |
Descrição
Utilizar acordo entre avaliadores para avaliar o acordo entre duas classificações (escala nominal ou ordinal).
Se os dados brutos estiverem disponíveis na planilha, use o acordo entre os avaliadores no menu Estatísticas para criar a tabela de classificação e calcular a Kappa (Cohen 1960; Cohen 1968; Fleiss et al, 2003).
Acordo é quantificado pela estatística Kappa (K):
- K é 1 quando há perfeita concordância entre os sistemas de classificação
- K é 0 quando não há concordância melhor que o acaso
- K é negativo quando a concordância é pior que o acaso.
Entrada necessária
No formulário de diálogo você pode entrar com os dois sistemas de classificação em uma tabela de freqüência 6×6.
Select Weighted Kappa (Cohen 1968) se os dados vierem de uma escala ordenada. Se os dados vierem de uma escala nominal, não selecione Weighted Kappa.
Usar pesos lineares quando a diferença entre a primeira e a segunda categoria tiver a mesma importância que uma diferença entre a segunda e a terceira categoria, etc. Se a diferença entre a primeira e a segunda categoria for menos importante que uma diferença entre a segunda e terceira categoria, etc.., use pesos quadráticos.
Neste exemplo, dos 6 casos que o observador B colocou na classe 1, o observador A colocou 5 na classe 1 e 1 na classe 2; dos 19 casos que o observador B colocou na classe 2, o observador A colocou 3 na classe 1, 12 na classe 2 e 4 na classe 3; e dos 12 casos que o observador B colocou na classe 3, o observador A colocou 2 na classe 1, 2 na classe 2 e 8 na classe 3.
Após ter inserido os dados, clique no botão Teste. O programa exibirá o valor para Kappa com seu erro padrão e intervalo de confiança de 95% (CI).
MedCalc calcula a estatística de concordância inter-atores Kappa de acordo com Cohen, 1960; e ponderou Kappa de acordo com Cohen, 1968. Detalhes computacionais também são dados em Altman, 1991 (p. 406-407). O erro padrão e o intervalo de confiança de 95% são calculados de acordo com Fleiss et al., 2003.
Os erros padrão reportados pelo MedCalc são os erros padrão apropriados para testar a hipótese de que o valor subjacente da Kappa ponderada é igual a um valor pré-especificado diferente de zero (Fleiss et al.., 2003).
O valor K pode ser interpretado da seguinte forma (Altman, 1991):
Valor de K | Força de concordância |
---|---|
< 0.20 | Pobre |
0,21 – 0,40 | Fair |
0,41 – 0,60 | Moderar |
0.61 – 0,80 | Bom |
0,81 – 1,00 | Muito bom |
No campo de entrada Comentário pode introduzir um comentário ou conclusão que será incluído no relatório impresso.
Literatura
- Altman DG (1991) Estatísticas práticas para investigação médica. Londres: Chapman e Hall.
- Cohen J (1960) Um coeficiente de concordância para as escalas nominais. Medida pedagógica e psicológica, 20:37-46.
- Cohen J (1968) Kappa ponderado: concordância de escala nominal com provisão para discordância de escala ou crédito parcial. Boletim Psicológico 70:213-220.
- Fleiss JL, Levin B, Paik MC (2003) Métodos estatísticos para taxas e proporções, 3ª ed. Hoboken: John Wiley & Sons.