![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
数据挖掘
文章平均质量分 93
sun_shengyun
这个作者很懒,什么都没留下…
展开
-
使用python+sklearn的决策树方法预测是否有信用风险
使用python+sklearn的决策树方法预测是否有信用风险原创 2016-09-21 11:01:18 · 6910 阅读 · 0 评论 -
使用sklearn进行集成学习——实践
1 Random Forest和Gradient Tree Boosting参数详解 2 如何调参? 2.1 调参的目标:偏差和方差的协调 2.2 参数对整体模型性能的影响 2.3 一个朴实的方案:贪心的坐标下降法 2.3.1 Random Forest调参案例:Digit Recognizer 2.3.1.1 调整过程影响类参数 2.3.转载 2016-09-27 10:52:55 · 1107 阅读 · 0 评论 -
偏差和方差的区别(机器学习)
关于偏差和方差,两个比较直观的解释 作者:Jason Gu 链接:http://www.zhihu.com/question/20448464/answer/20039077 来源:知乎 著作权归作者所有,转载请联系作者获得授权。 偏差:描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据,如下图第二行所示。 方差:描述的是预测值的变化范围,离散程度,也就是离其期转载 2016-09-26 15:00:52 · 1311 阅读 · 0 评论 -
SVM支持向量机原理(一) 线性支持向量机
此篇文章并非完全原创,参考了下篇博客,如果大家觉得稳重的1、2、3部分不好理解,可以看下图中我的手写版。 http://www.cnblogs.com/pinard/p/6097604.html 支持向量机(Support Vecor Machine,以下简称SVM)虽然诞生只有短短的二十多年,但是自一诞生便由于它良好的分类性能席卷了机器学习领域,并牢牢压制了神经网络领域好多年。如原创 2017-02-18 13:24:55 · 3802 阅读 · 0 评论 -
SVM支持向量机原理(二) 线性支持向量机的软间隔最大化模型
在支持向量机原理(一) 线性支持向量机中,我们对线性可分SVM的模型和损失函数优化做了总结。最后我们提到了有时候不能线性可分的原因是线性数据集里面多了少量的异常点,由于这些异常点导致了数据集不能线性可分,本篇就对线性支持向量机如何处理这些异常点的原理方法做一个总结。 1. 线性分类SVM面临的问题 有时候本来数据的确是可分的,也就是说可以用 线性分类SVM的学习方法来求解,但是却因为混转载 2017-02-18 15:39:44 · 2630 阅读 · 0 评论 -
SVM支持向量机原理(三)线性不可分支持向量机与核函数
转自http://www.cnblogs.com/pinard/p/6103615.html 在前面两篇我们讲到了线性可分SVM的硬间隔最大化和软间隔最大化的算法,它们对线性可分的数据有很好的处理,但是对完全线性不可分的数据没有办法。本文我们就来探讨SVM如何处理线性不可分的数据,重点讲述核函数在SVM中处理线性不可分数据的作用。 1. 回顾多项式回归 在线性回归原理小结中,我们讲到转载 2017-02-18 16:35:18 · 1969 阅读 · 0 评论 -
SVM支持向量机原理(四)SMO算法原理
转自http://www.cnblogs.com/pinard/p/6111471.html 在SVM的前三篇里,我们优化的目标函数最终都是一个关于α α向量的函数。而怎么极小化这个函数,求出对应的α α向量,进而求出分离超平面我们没有讲。本篇就对优化这个关于α α向量的函数的SMO算法做一个总结。 1. 回顾SVM优化目标函数 我们首先回顾下我们的优化目标函数: mi转载 2017-02-18 16:48:25 · 953 阅读 · 0 评论 -
scikit-learn SVM支持向量机算法库使用小结
之前通过一个系列对支持向量机(以下简称SVM)算法的原理做了一个总结,本文从实践的角度对scikit-learn SVM算法库的使用做一个小结。scikit-learn SVM算法库封装了libsvm 和 liblinear 的实现,仅仅重写了算法了接口部分。 1. scikit-learn SVM算法库使用概述 scikit-learn中SVM的算法库分为两类,一类是分类的算法库,包转载 2017-02-18 17:09:31 · 1778 阅读 · 0 评论