sklearn Examples
文章平均质量分 84
bea_tree
只要不断按着梯度来,最差也可以进入局部最优解
展开
-
106 多分类
1. 函数介绍按照出场顺序对没有介绍过的函数介绍下1.1 CCA 典型相关分析一个比较好的文章 http://wenku.baidu.com/link?url=AGlaTNEen3DwykJqVNlZXmRz-tQ6ESFYLROEVYkwbzL5YVeGO_ON0jjRvCdy1ne8ARcQNXB5KayH7rPEnaNAQlGXa2u5hUJNV8Qt42UF70K 还有一篇博客 htt原创 2016-04-08 17:40:00 · 828 阅读 · 0 评论 -
105 PCA和logistic regression的联合使用
本文用了pipeline将pca和logistic chain起来,并且用了GridSearchCV选择了最佳参数。1.主要函数介绍1.1 PCA当矩阵为n*n时,其运算复杂度为n^3 http://scikit-learn.org/stable/modules/generated/sklearn.decomposition.PCA.html#sklearn.decomposition.PCA其主原创 2016-04-07 20:22:20 · 3521 阅读 · 0 评论 -
104 缺失值预处理
104 缺失值预处理http://scikit-learn.org/stable/auto_examples/missing_values.html#example-missing-values-py 对于缺失值的处理,一定程度上能够决定算法模型的表现,常用的缺失值的处理方法有平均值,中间值,最常用的值等等,这三种分别对应着sklearn里preprocessing。imputer的三种处理策略。原创 2016-04-07 16:57:59 · 1028 阅读 · 0 评论 -
103 保序回归 isotonic regression
1.关于isotonic regression首先sklearn粘上原贡献者的博客Isotonic Regression http://fa.bianp.net/blog/2013/isotonic-regression/及Wikipedia上的解释https://en.wikipedia.org/wiki/Isotonic_regression这种回归,是这一种不减函数的回归,回归原创 2016-03-30 11:25:27 · 9146 阅读 · 0 评论 -
102 特征提取方法的集成
本文作为学习sklearn的笔记,有理解错误之处,敬请指教,不胜感激。1.首先对本例所涉及的几个模块做一下介绍1.1pipeline.Pipelinehttp://scikit-learn.org/stable/modules/generated/sklearn.pipeline.Pipeline.html#sklearn.pipeline.Pipelinehttp://sci原创 2016-03-28 15:40:42 · 1592 阅读 · 0 评论