scikit-learn
lixintong1992
这个作者很懒,什么都没留下…
展开
-
干货:结合Scikit-learn介绍几种常用的特征选择方法
作者: Edwin Jarvis 特征选择(排序)对于数据科学家、机器学习从业者来说非常重要。好的特征选择能够提升模型的性能,更能帮助我们理解数据的特点、底层结构,这对进一步改善模型、算法都有着重要作用。 特征选择主要有两个功能: 减少特征数量、降维,使模型泛化能力更强,减少过拟合增强对特征和特征值之间的理解 拿到数据集,一个特征选择方法,往往很难同时完成这两个目的。通转载 2016-04-21 16:35:58 · 2098 阅读 · 0 评论 -
Python 之 sklearn 交叉验证 数据拆分
http://blog.csdn.net/u013630349/article/details/47133283 本文K折验证拟采用的是 Python 中 sklearn 包中的 StratifiedKFold 方法。 方法思想详见:http://scikit-learn.org/stable/modules/cross_validation.html Str转载 2016-05-19 18:16:38 · 8512 阅读 · 0 评论 -
[Scikit-Learn] - 数据预处理 - 归一化/标准化/正则化
reference: http://www.cnblogs.com/chaosimple/p/4153167.html 一、标准化(Z-Score),或者去除均值和方差缩放 公式为:(X-mean)/std 计算时对每个属性/每列分别进行。 将数据按期属性(按列进行)减去其均值,并处以其方差。得到的结果是,对于每个属性/每列来说所有数据都聚集在0附近,方差为1。转载 2016-05-20 17:25:11 · 5715 阅读 · 0 评论 -
玩不转scikit-learn(一):LinearRegression
为了能更好的掌握机器学习,自己边学习边自己写一写算法。为了验证自己算法实现的准确性,我会和scikit-learn的对应算法进行对比。恩,水平有限,尽力分析下为什么scikit-learn的对应算法会比自己实现的朴素算法好。希望可以对于算法本身和scikit-learn的实现有一定的深度理解。。希望吧代码用Python3在jupyter notebook(ipython notebook)上写的。代原创 2017-03-22 17:17:05 · 1149 阅读 · 0 评论