Kappa de Cohen
MétricasMétrica estadística que mide el acuerdo entre anotadores ajustando por acuerdo aleatorio. Valores >0.8 indican acuerdo fuerte, 0.6-0.8 sustancial. Estándar para validar calidad de anotaciones en corpus.
Conceptos relacionados: