机器学习
Maigz
这个作者很懒,什么都没留下…
展开
-
OpenCV实践之路——人脸检测(C++/Python)
版权声明:本文为博主原创文章,转载请联系作者取得授权。 https://blog.csdn.net/xingchenbingbuyu/article/details/51105159本文由@星沉阁冰不语出品,转载请注明作者和出处。文章链接:http://blog.csdn.net/xingchenbingbuyu/article/details/51105159微博:http://weibo.co...转载 2018-04-20 17:52:21 · 306 阅读 · 0 评论 -
评价模型的指标
正确率、精确率、召回率、F1、AUC和ROC曲线其实都是评价模型好坏的指标,而且相互之间是有关系的,只是侧重点不同。 根据混淆矩阵可以得出:TP,FN,FP,TN四个值。 准确率:(TP+TN)/(TP+FN+FP+TN) 可以看出是实际分对的样本/总样本 精确率:TP/ ( TP+FP ) 预测为正确的样本中实际为正确样本的占比 召回率: TP /(TP+FN) F1...原创 2018-10-12 14:53:18 · 3622 阅读 · 0 评论 -
线性回归(含推导)
回归与分类 1.线性回归有:⑴岭回归 ⑵Lasso回归 2.机器学习主要分为有监督学习和无监督学习两种。 3.无监督:事先没有任何训练数据样本,需要直接对数据建模。 或者:通过已有的训练(即已知数据及其对应的输出)来训练,从而得到一个模型,再利用这个模型将所有新的数据样本映射为相应的输出结果,对输出结果进行简单的判断从而实现分类目的,那么这个模型就具有了对未知数据进行分类的能力。 例如: ...原创 2018-10-12 15:01:03 · 666 阅读 · 0 评论 -
逻辑回归(含推导)
逻辑回归(logistic) 1、L就是用sigmod函数 2、损失函数为: 逻辑回归的损失函数与线性回归相似,就是多了sigmoid函数,将概率映射到0-1之间。 再用极大似然思想,将L(θ)函数最大化。 然后梯度上升,将函数达到最大化 与吴恩达版本不同的是前面多一个负号,把上升变成我们熟悉的梯度下降。 那么逻辑回归的优缺点: 那...原创 2018-10-12 15:14:51 · 245 阅读 · 0 评论