T-sklearn
文章平均质量分 92
被遗弃的庸才
这个作者很懒,什么都没留下…
展开
-
sklearn的持续更新-1.1 广义线性回归模型-1.1.1.
最近感觉学习ml没有什么动力,所有想把sklearn的东西翻译一下,顺便加深自己对算法的理解,也是提高当前本人的英语水平(目前英语惨目忍睹(ノ=Д=)ノ┻━┻)。我会尽量按照我自己的理解来进行翻译,有错还是希望大家能够理解,希望和大家一起学习进步。1.1.广义线性回归下面的公式是一组线性回归方法,其中是目标值和真实输入值组合。在数学概念中,假设为预测值。通过这个模型,我们指定这个向量作为一次性系数...翻译 2018-06-04 10:19:08 · 829 阅读 · 0 评论 -
sklearn-1.1.14.被动攻击算法
1.1.14.被动攻击算法被动攻击算法适用于大规模学习的算法。它和感知器一样不需要学习率。然而,与感知器相反,它有一个正则化参数c。对于分类,PassiverAggressiveVClassifier可以使用loss=hinge或者loss=squared_hinge。对于回归,PassiveAggressiveRegressor可以使用loss=epsilon_insensitive或者loss...翻译 2018-06-10 12:34:58 · 2790 阅读 · 0 评论 -
sklearn-1.1.13.感知器
1.1.13.感知器感知器是适用于大规模学习的另一种简单的算法。如: *它不需要学习的速率 *它不需要正则化(惩罚) *它是只能在错误时更新模型最后一个特征意味着感知器在训练的速度上比SGD快,并且损失小,所得到的模型较为稀疏。...翻译 2018-06-10 11:57:53 · 337 阅读 · 0 评论 -
sklearn-1.1.12随机梯度下降
1.1.12.随机梯度下降随机梯度下降是拟合简单线性模型中非常有效的方法。当样本的数量(以及特征的数量)非常大的时候非常有用。partial_fit只允许外核学习。SGDClassifier和SGDRegressor类提供了不同的(凸)损失函数和惩罚值来拟合用于分类和回归的模型。例如:当loss=log时,SGDClassifer适合逻辑回归模型,而loss=hinge它就适合线性的支持向量机(S...翻译 2018-06-10 11:52:38 · 413 阅读 · 0 评论 -
sklearn-1.1.11逻辑回归
1.1.11.逻辑回归尽管叫做逻辑回归,但是它是一个分类而不是一个线性回归。逻辑回归在文献中也被称为logit回归,最大熵模型(MaxEnt)或者是对数线性分类器。在这个模型中,描述单个实验的可能结果的概率使用逻辑函数来进行建模。可以在scikit-learn中的LogisticRegression类中实现逻辑回归。这个可以用在二分类问题上,一对一,或者多元逻辑回归,可以使用L2或者L1正则化。作...翻译 2018-06-08 20:49:29 · 719 阅读 · 0 评论 -
sklearn-1.1.10贝叶斯回归
1.1.10.贝叶斯回归贝叶斯回归技术可以用在估计过程中包含正则参数:正则化参数并不是严格意义上的定义,而是根据当前的数据进行调整。这些可以通过模型的超参数中引入无信息的先验完成。岭回归中使用的正规化等于在精度高于参数情况下高斯先验下找到最大后验估计。不需要手动指定lambda的值,可以将其看做是数据中估计的随机变量。为了等到完整的全概率模型,假设输出的是服从高斯分布的:alpha再一次的被视为一...翻译 2018-06-07 20:31:21 · 8636 阅读 · 0 评论 -
sklearn-1.1.9.正交匹配追踪(OMP)
1.1.9.正交匹配追踪OrthogonalMatchingPursuit和orthogonal_mp实现OMP算法,用于近似线性模型的拟合,其中非线性系数的数量(即L 0伪范数)受到约束。作为最小角度回归等前向特征选择方法,正交匹配追踪可以用固定数量的非零元素逼近最优解矢量:或者,正交匹配追踪可以针对特定的错误而不是特定数量的非零系数。 这可以表示为:OMP基于贪婪算法,该算法在每一步都包含与当...翻译 2018-06-06 19:25:51 · 1668 阅读 · 0 评论 -
sklearn-1.1.8.最小角度回归的套索
1.1.8.最小角度回归的套索最小角度回归的套索是使用的最小角度算法实现的,与使用位置下降的算法不同,该方案能够解决分段线性的,作为其系数的范数函数。from sklearn import linear_modelreg=linear_model.LassoLars(alpha=0.1)print(reg.fit([[0,0],[1,1]],[0,1]))#LassoLars(alpha=0....翻译 2018-06-05 17:15:57 · 477 阅读 · 0 评论 -
sklearn-1.1.7.最小角度回归
1.1.7.最小角度回归最小角度回归(LARS)是高位数据回归的算法之一,由Bradley Efron,Trevor Hastie,Iain Johnstone和Robert Tibshirani开发。LARS类似于前向逐步回归。在每一的中,它找到与预测值最相关的值。当多个变量具有相同的线性相关时,不是沿着相同的预测变量继续,而是沿着预测变量之间的等角方向前进。LARS的优点: ...翻译 2018-06-05 16:59:19 · 993 阅读 · 0 评论 -
sklearn-1.1.5.弹性网
1.1.5.弹性网弹性网是一个线性回归,使用L1和L2作为正则化参数进行训练。这种组合允许学习稀疏模型,其中很少的权重像套索那样非零,同时保持了岭的正则化属性。我们使用l1_ratio控制L1和L2组成凸函数。当有多个相互关联的特征时,弹性网络很有用。套索可能会随机选择其中的一种,而弹性网可能会选择这两种。一个实际的优势是弹性网在套索和岭回归之间进行权衡,它继承了岭回归的一些稳定性。在这种情况下,...翻译 2018-06-05 16:06:47 · 1532 阅读 · 0 评论 -
sklearn-1.2.线性和二次判别分析
1.2.线性和二次辨别分析线性辨别分析(discriminant_analysis.LinearDiscriminantAnalysis)和二次辨别分析(discriminant_analysis.QuadraticDiscriminantAnalysis)是两个经典的分类器,正如它们名字描述的那样,分别是一个线性和一个二次决策表面。这些分类器是很吸引人的,因为它们可以很容易的计算在封闭式情况下的...翻译 2018-06-12 16:03:44 · 1427 阅读 · 0 评论 -
sklaern-1.1.4多任务套索
1.1.4.多任务套索多任务套索是一个线性模型,可以联合估计多个回归问题的系数系数:y是一个二维数组其形状为(n_samples,n_tasks)。约束条件是所选特征对于回归问题都是相同的,也称为任务。下图比较了简单的套索和多任务套索得到的权重的非零位置,简答套索产生分散的非零值,而多任务套索的非零值是全列的。拟合时间序列模型,加强任何时间表现都是积极的。例子多任务套索的联合特征选择多任务套索允许...翻译 2018-06-05 09:39:08 · 395 阅读 · 0 评论 -
sklearn-1.1.16.多项式回归:基函数拓展线性回归模型
1.1.16.多项式回归:基函数拓展线性回归模型机器学习中一种常见模式是使用线性模型去训练非线性模型。这种方式保持了常见线性方法的快速性,同时适用于更广泛的数据。例如,一个简单的线性回归可以通过系数拓展到多项式。在标准线性回归情况下,你看你有一个类似二维数据的模型:如果我们要将数据拟合成一个抛物面而不是平面,我们可以将这些特诊组合到二项式中,模型如下所示:(令人惊讶的)观察到这仍然是一个线性模型:...翻译 2018-06-11 20:02:08 · 2426 阅读 · 0 评论 -
sklearn-1.1.3.Lasso
1.1.3套索套索回归是一个稀疏系数的线性回归。当参数值较少的时候,它很有用,有效的减少了给定方案所需要的变量的数量。由于这个原因,套索和变量是压缩感测领域的基础。在这种情况下,它可以恢复额外的非零权重(压缩感测,以下是它的简介)这个例子展示了一组平行投影的图形重建,从不同角度获取。例如,这组数据是从CT中获得的。没有事先样本的相关信息,重构图片所需的投影数量是图像的线性尺寸I的量级(以像素为单位...翻译 2018-06-04 21:44:31 · 2161 阅读 · 0 评论 -
sklearn-1.1.2.Ridge Regression
1.1.2 Ridge RegressionRidge回归通过对系数的惩罚值来解决最小二乘法的系数问题。岭系数的最小化惩罚残差平方和的公式:这里,是用来控制收缩量的复杂参数:参数值越大,收缩量也越大,因此系数对共线性变得更加稳健。与其他线性模型一样,岭模型对数组X,y进行拟合,并将线性模型的系数存储在coef_成员中from sklearn import linear_modelreg=line...翻译 2018-06-04 16:33:42 · 2538 阅读 · 0 评论 -
sklearn-1.1.15.鲁棒性回归:异常值模型错误
1.1.15.鲁棒性回归:异常值和模型错误鲁棒回归适用于数据异常的回归模型:异常值或出现模型错误。1.1.15.1.不同的场景和有用的概念x异常还是y异常?当y是异常值时当x异常时异常值的分数与误差幅度的关系离群点的数量很重要,但是有多少是离群点。离群点较少的时候离群点较多的时候稳健拟合的一个重要的概念就是分解点:可能一小部分的偏离合适的数据,失去依附数据。注意,一般来说,高维设置的鲁棒性拟合很困...翻译 2018-06-10 19:08:56 · 5275 阅读 · 0 评论