2 个答案:
答案 0 :(得分:1)
kappam.fleiss函数和concordance函数之间的区别在于,第一个用于详细评估者,第二个用于摘要数据。在Wikipedia页面上查看以下示例:
DATA
DATA$Rater2
DATA$Rater3
DATA$Rater4
DATA$Rater5
DATA$Rater6
DATA$Rater7
DATA$Rater8
DATA$Rater9
DATA$Rater10
DATA$Rater11
DATA$Rater12
DATA$Rater13
DATA$Rater14
library("irr")
kappam.fleiss(DATA)
TABLE
for (COLUMN in 1:5) {
for (ROW in 1:10) {
TABLE[ROW, COLUMN]
}
}
library(raters)
concordance(db = TABLE, test="Normal")
答案 1 :(得分:1)
irr包不提供置信区间。你有可能从一个可以获得的测试统计数据中计算出来(如果是这样的话,就像42所说的那样,这是一个Cross Validated的问题)。
但是,这是由raters包提供的。
library(raters)
data(diagnostic)
concordance(diagnostic,test="Chisq")
concordance(diagnostic,test="Normal")
concordance(diagnostic,test="MC",B=100)
Inter-rater Agreement
$Fleiss
Kappa LCL UCL Std.Error Z value Pr(>|z|)
0.43024452 0.38247249 0.47801655 0.02437393 17.65183058 0.00000000
$Statistic
S LCL UCL pvalue
0.4444444 0.3555556 0.5404861 0.0000000