Machine Learning
iamxiaofeifei
Thinking and coding...
展开
-
ROC曲线和AUC
1.二分类问题的混淆矩阵(confusion matrix)以及precision、recall: 真实情况 预测结果(正例positive) 预测结果(反例negative) 正例(true) TP(真正例) FN(假反例) 反例(false) FP(假正例) TN(真反例) precision = TP / (TP + FP): 预测为正例中,有多少真的是正例,原创 2017-08-07 20:46:50 · 2676 阅读 · 0 评论 -
SVM(2)-- Kernel
对于非线性分类,SVM一般有两种选择: 1. 容忍错误分类,即引入soft margin 2. 利用kernel trick,对input space做feature expansion,形成feature space,即把数据映射到高维中去。 这里谈谈kernel。核技巧(kernel trick):学习是隐式地在特征空间下进行的,不需要显式地定义特征空间(feature space)和映射原创 2017-09-13 13:21:26 · 527 阅读 · 0 评论 -
SVM(1)--线性可分支持向量机
1.线性可分支持向量机(针对二分类问题讨论) 线性可分SVM的基本思想:一般数据线性可分时存在无穷多个分离超平面能将两类数据分开,线性SVM利用间隔最大化的策略求最优的分类超平面,解是唯一的。数据说明:mm个样本点,y∈{1,−1}y\in\{1, -1\},线性可分假设超平面:ωTx+b=0{\omega^Tx + b = 0} 点xix_i到面的距离:|ωTxi+b|||ω|| {\frac原创 2017-09-12 07:31:59 · 682 阅读 · 0 评论