评估分类模型中的二分类模型, 混淆矩阵(T F P N)
-
在机器学习中,T/F 和 P/N 分别代表以下概念:
- T 代表 True(真实):模型预测结果与实际情况相符。
- F 代表 False(假):模型预测结果与实际情况不符。
- P 代表 Positive(正):预测结果为正面结果(例如,预测某人患有疾病)。
- N 代表 Negative(负):预测结果为负面结果(例如,预测某人没有患病)。
-
因此,我们可以得到以下四种组合:
- TP(True Positive):预测为正,实际也为正。
- TN(True Negative):预测为负,实际也为负。
- FP(False Positive):预测为正,实际为负。
- FN(False Negative):预测为负,实际为正。
-
因此可以推出:[ _ 模型预测与真实是否一致 _ , _ 真实结果 _ ]
下面举个例子:
比如让一个模型去预测,一车的西瓜是好瓜还是坏瓜:
瓜本身是好瓜 | 瓜本身是坏瓜 | |
---|---|---|
模型预测是好瓜 | 瓜本身是好瓜(P ) [ 模型预测是好瓜 && 瓜本身是好瓜 ](T ) | 瓜本身是坏瓜(N ) [ 模型预测是好瓜 && 瓜本身是坏瓜 ](F ) |
模型预测是坏瓜 | 瓜本身是好瓜(P ) [ 模型预测是坏瓜 && 瓜本身是好瓜 ](F ) | 瓜本身是坏瓜(N ) [ 模型预测是坏瓜 && 瓜本身是坏瓜 ](T ) |
从而引出我们需要的混淆矩阵:
正例(P ) | 反例(N ) | |
---|---|---|
预正 | TP | FN |
预错 | FP | TN |
注意: 这里可能有人直接将模型的预测直接作为预测的结果,这是错误的, 结果的正确与否是通过模型的预测结果与真实的情况做对比(&&
) 一致的结果才为正确结果,反之亦然。
现在我们可以轻易的解释上方为什么是这样的:
- 模型预测与真实结果一致并真实结果是正例 =>
TP
- 模型预测与真实结果不一致并真实结果是反例 =>
FN
- 模型预测与真实结果不一致并真实结果是正例 =>
FP
- 模型预测与真实结果一致并真实结果是反例 =>
TN
这些概念常用于评估分类模型的性能。例如,精确度(Precision)和召回率(Recall)就是基于这些概念来定义。