![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
sklearn
liuwei423210896
这个作者很懒,什么都没留下…
展开
-
sklearn之XGBoost
xgboost需要理解:(1)梯度提升树和xgboost的区别:梯度提升树,是y^n+1 = y^n + h(x)通过前面n颗树的结果,得出平均值;xgboost则是通过前面n棵树y^n+1 = y^n + f(x) 的预测分数,来得到新树(2)决策树通过梯度下降方法类比的迭代训练新树,只要弱分类器的概率比瞎猜好,肯定提升后的树效果会训练效果更好对于xgboost的模型训练后的指标主...原创 2019-12-03 22:11:04 · 247 阅读 · 0 评论 -
sklearn之SVM支持向量机
支持向量机需要注意的地方:1. 三个理解步骤: (1) 理解svm的损失函数,min ||w||^2/2并且y(wx+b)>=k的限制条件的推导 (2) 拉格朗日定理求最小值,以及推导过程2. 关于核函数的作用: 可以通过升维度的方式将无法线性可分的数据可分,但升维的代价太大,所以通过核函数可以达到类似的效果并且计算量也不是那么大,核函数相当于增加了一维,...原创 2019-12-01 11:32:40 · 494 阅读 · 0 评论 -
sklearn之逻辑回归LR
对于线性回归,由于都是求线性参数;逻辑回归,由于其呈S型,具有在坐标轴两个左右边进行急剧上升下降的趋近1或者0,因此具有分类特性。 决策树是天生的过拟合,而线性回归是天生的欠拟合; L1范式可以完成 损失函数只针对于【有参数求解的模型】,损失函数越小则模型拟合的越好; Kmean对于total inertial(簇内平方和),虽然不是损失函数,并不是为了求解参数,但是...原创 2019-11-30 13:38:45 · 785 阅读 · 1 评论 -
sklearn之降维算法PCA
import matplotlib.pyplot as pltfrom sklearn.datasets import load_irisfrom sklearn.decomposition import PCAiris = load_iris()y = iris.targetX = iris.dataX.shapeimport pandas as pdpd.DataFram...原创 2019-11-29 01:41:03 · 332 阅读 · 0 评论