很多的笔试都会提到这个,对于深度学习来说,优化器非常重要,然后就是损失函数如何写也非常重要,但是还有一个更加重要的就是我们的评测标准,好的评测标准才可以更好的去衡量我们的模型。比如我实习的时候就需要根据业务需求,写一个符合业务需求的测试标准。
AUC和ROC的标准
ROC曲线:
横轴:负正类率(false postive rate FPR)特异度,划分实例中所有负例占所有负例的比例;(1-Specificity)
纵轴:真正类率(true postive rate TPR)灵敏度,Sensitivity(正类覆盖率)
2针对一个二分类问题,将实例分成正类(postive)或者负类(negative)。但是实际中分类时,会出现四种情况.
(1)若一个实例是正类并且被预测为正类,即为真正类(True Postive TP)
(2)若一个实例是正类,但是被预测成为负类,即为假负类(False Negative FN)
(3)若一个实例是负类,但是被预测成为正类,即为假正类(False Postive FP)
(4)若一个实例是负类,但是被预测成为负类,即为真负类(True Negative TN)
TP:正确的肯定数目
FN:漏报,没有找到正确匹配的数目
FP:误报,没有的匹配不正确
TN:正确拒绝的非匹配数目
左上角肯定是最好的,说明预测这一类的时候ÿ