![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
sklearn
Sponge Bob
这个作者很懒,什么都没留下…
展开
-
网格搜索——GridSearchCV
针对有多个参数的机器学习模型,手动调参繁琐,通过网格搜索,遍历所有参数,得到最优参数网格搜索就是穷举法#网格搜索from sklearn.model_selection import GridSearchCVparam_grid=[{"kernel":["linear"],"C":[0.1, 0.2,1, 10,100],}, {"kernel":["rbf"],...原创 2020-01-11 14:49:52 · 445 阅读 · 0 评论 -
update sklearn in anaconda
from sklearn import tree 错误:AttributeError: type object ‘sklearn.tree._tree.TreeBuilder’ has no attribute ‘reduce_cython’尝试更新sklearn,发现问题解决打开 anaconda promptconda update scikit-learn参考文献1、an...原创 2019-05-06 12:53:15 · 515 阅读 · 0 评论 -
Flattening the nested list
转载,整理嵌套列表的压平如何将多维列表转化成一维的?对于规范的且嵌套维度较低的多维列表,python中有很多方法可以实现:1、简单的多维列表转化a=[[1,2],[3,4],[5,6]]print([j for i in a for j in i])[1, 2, 3, 4, 5, 6]#orfrom itertools import chainprint(list(chai...转载 2019-07-22 10:37:52 · 180 阅读 · 0 评论 -
统计学习方法(三)1-least_sqaure_method
目录1、最小二乘法拟合曲线2、正则化3、简单交叉验证4、样条插值1、最小二乘法拟合曲线[第一章]最小二乘法根据高斯-马尔科夫定理,在线性回归模型( y=βx+εy = \beta x+\varepsilony=βx+ε )中,如果误差 ε\varepsilonε 满足零均值、等方差、互不相关,则最小二乘法估计的回归系数 β^\hat \betaβ^ 满足最佳线性无偏估计,即方差最...原创 2019-07-22 11:24:40 · 277 阅读 · 0 评论 -
统计学习方法(四)2-Iris_perceptron
感知机二分类问题的线性分类模型,输入为实例的特征向量 x∈Rnx \in R^nx∈Rn,输出为实例的类别{+1,-1}。数据集线性可分,即存在超平面 S ,w∗x+b=0w*x +b = 0w∗x+b=0 能够将数据集的正实例和负实例完全正确的划分到超平面的两侧。感知机学习的目的是求出将训练数据进行线性划分的分离超平面,属于判别模型。模型f(x)=sign(w∗x+b)f(x) = s...原创 2019-07-22 12:25:21 · 462 阅读 · 0 评论 -
统计学习方法(五)3-KNN
K近邻k-NN是一种基本的分类与回归方法,可以进行多分类。分类时,对于新的实例,根据其k个最近邻的训练实例的类别,通过多数表决等方式进行预测。k值的选择、距离度量及分类决策规则(多数表决)是k近邻法的三个基本要素。1、模型特征空间中两个实例点的距离是两个实例点相似程度的反映,常见的距离度量包括(欧式距离、LpL_pLp 距离或Minkowski距离)1.1距离度量设特征空间 XXX ...原创 2019-07-22 12:33:34 · 207 阅读 · 0 评论 -
统计学习方法(六)4-GaussianNB
朴素贝叶斯基于贝叶斯定理与特征条件独立假设的分类方法。属于生成模型,先学习联合概率分布 P(X,Y)P(X,Y)P(X,Y) ,后计算后验概率分布 P(Y∣X)P(Y|X)P(Y∣X)模型设输入空间 X∈RnX \in R^nX∈Rn 为 nnn 维向量的集合,输出空间为类标记集合 Yc1,c2,…,cKY {c_1,c_2,\ldots,c_K}Yc1,c2,…,cK 。X是定义在输...原创 2019-07-22 12:38:12 · 4982 阅读 · 0 评论