![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
分类学习
weixin_43473864
这个作者很懒,什么都没留下…
展开
-
SVM1
https://blog.csdn.net/DP323/article/details/80535863 SVM简介 SVM在解决小样本、非线性及高维模式识别中表现出许多特有的优势。 SVM是建立在统计学习理论的VC维理论和结构风险最小原理基础上的。 VC维是对函数类的一种度量,可以简单的理解为问题的复杂程度。正因为SVM关注的是VC维,它在解决分类问题的时候,和样本的维数是无关的。 泛化误差界的...原创 2018-10-28 15:45:13 · 193 阅读 · 0 评论 -
SVM2
线性分类器的求解 上节说到线性分类函数,也有了判断解优劣的标准–即有了优化的目标,这个目标就是最大化几何间隔。 1.SVM优化的目标有最小化||w||,我们常常使用另一个完全等价的目标函数来代替,那就是: 2.对于目标函数,要考虑如下的约束条件: 其中l是样本数。 3.在上面的求解过程中,可以看到自变量是w,而目标函数是w的二次函数,这种规划问题叫做二次规划,可以更进一步的说,它的可行域是一个...原创 2018-10-28 16:56:19 · 86 阅读 · 0 评论 -
SVM3
核函数 线性分类器只能解决线性可分的情况,那对于线性不可分的情况,可以用非线性函数作为分类器。 下面新建一个向量y和a 于是,g(x)可以写为: f(y)可以表示为四维空间里的函数。是因为f(y)里面的y是一个三维的变量。这样,在二维空间里线性不可分的问题,在四维空间里变得线性可分。 在这里引入核函数的概念。核函数的基本概念就是接受两个低维空间里的向量,能够计算出经过某个变换后在高维空间里...原创 2018-10-28 20:45:22 · 117 阅读 · 0 评论 -
集成学习
https://www.analyticsvidhya.com/blog/2018/06/comprehensive-guide-for-ensemble-models/ stacking:堆;blending:混合物;bagging:装袋;boosting:助推 meta-estimator:元估计 2.1 Max Voting In this technique, multiple mode...原创 2018-10-29 16:03:32 · 127 阅读 · 0 评论 -
机器学习-分类
print(1)原创 2018-10-20 18:38:15 · 177 阅读 · 0 评论 -
机器学习-分类3
今天,输出了cross validation 在每个类别里面的 模型评估值。 主要有下面2步: #这是将输出变成pandas矩阵的函数 from sklearn.metrics import classification_report from collections import defaultdict def report2dict(cr): # Parse rows tmp ...原创 2018-10-29 19:29:29 · 103 阅读 · 0 评论 -
逻辑回归
https://blog.csdn.net/u013019431/article/details/79982258 ?在逻辑回归中,由于做了一次压缩所以没办法做正态分布的似然估计,这里采用的是做二项分布的假设。 sklearn.linear_model.LogisticRegression 参数 penalty. ‘l1’ or ‘l2’, default:‘l2’ solver. {‘newt...原创 2018-11-05 14:48:30 · 107 阅读 · 0 评论 -
使用 Hyperopt 进行参数调优
https://www.jianshu.com/p/35eed1567463 网格搜索,随机搜索,贝叶斯优化 通常机器学习工程师或数据科学家将为少数模型(如决策树,支持向量机和 K 近邻)执行某种形式(网格搜索或随机搜索)的手动调参,然后比较准确率并选择最佳的一个来使用。该方法可能比较的是次优模型。也许数据科学家找到了决策树的最优参数,但却错过了 SVM 的最优参数。这意味着他们的模型比较是有缺...原创 2018-11-16 15:51:27 · 694 阅读 · 0 评论