评分员间可信度与Kappa统计量 Inter-rater reliability & Kappa statistics
评分员间可信度inter-rater reliability在统计学中,评分员间可信度inter-rater reliability,评分员间吻合性inter-rater agreement,或一致性concordance 都是描述评分员之间的吻合程度。它对评判者们给出的评级有多少同质性homogeneity或共识consensus给出一个分值。它有助于改进人工评判辅助工具,例如确定某个范围是
转载
2013-10-12 16:02:10 ·
20491 阅读 ·
0 评论