机器学习模型
理论与代码
LaoChen_ZeroonE
这个作者很懒,什么都没留下…
展开
-
Skleran-线性模型-logistic 回归
logistic 回归sklearn.linear_model.LogisticRegressionlogistic 回归logistic 回归,虽然名字里有 “回归” 二字,但实际上是解决分类问题的一类线性模型。在某些文献中,logistic 回归又被称作 logit 回归,maximum-entropy classification(MaxEnt,最大熵分类),或 log-linear classifier(对数线性分类器)。该模型利用函数 logistic function 将单次试验(sing.原创 2020-06-30 20:40:28 · 487 阅读 · 0 评论 -
Skleran-线性模型-贝叶斯回归(BayesianRidge)
贝叶斯回归sklearn.linear_model.BayesianRidgesklearn.linear_model.ARDRegression贝叶斯回归sklearn.linear_model.BayesianRidgeclass sklearn.linear_model.BayesianRidge(*, n_iter=300, tol=0.001, alpha_1=1e-06, alpha_2=1e-06, lambda_1=1e-06, lambda_2=1e-06, alpha_in.原创 2020-06-28 21:29:11 · 10892 阅读 · 1 评论 -
Skleran-线性模型-OrthogonalMatchingPursuit
OrthogonalMatchingPursuitsklearn.linear_model.OrthogonalMatchingPursuitOrthogonalMatchingPursuitsklearn.linear_model.OrthogonalMatchingPursuitclass sklearn.linear_model.OrthogonalMatchingPursuit(*, n_nonzero_coefs=None, tol=None, fit_intercept=True, .原创 2020-06-27 21:42:04 · 1134 阅读 · 0 评论 -
Skleran-线性模型-最小角回归(LARS)
最小角回归sklearn.linear_model.Larssklearn.linear_model.LassoLars最小角回归sklearn.linear_model.Larsclass sklearn.linear_model.Lars(*, fit_intercept=True, verbose=False, normalize=True, precompute='auto', n_nonzero_coefs=500, eps=2.220446049250313e-16, copy_X=.原创 2020-06-27 21:32:48 · 1090 阅读 · 0 评论 -
Skleran-线性模型-ElasticNetCV
ElasticNetCVsklearn.linear_model.ElasticNetsklearn.linear_model.MultiTaskElasticNetElasticNetCVsklearn.linear_model.ElasticNetclass sklearn.linear_model.ElasticNet(alpha=1.0, *, l1_ratio=0.5, fit_intercept=True, normalize=False, precompute=False, max.原创 2020-06-23 22:48:18 · 4135 阅读 · 0 评论 -
Skleran-线性模型-Lasso
Lassosklearn.linear_model.Lassosklearn.linear_model.MultiTaskLassoLassosklearn.linear_model.Lassoclass sklearn.linear_model.Lasso(alpha=1.0, fit_intercept=True, normalize=False, precompute=False, copy_X=True, max_iter=1000, tol=0.0001, warm_start=Fal.原创 2020-06-19 23:08:22 · 493 阅读 · 0 评论 -
Skleran-线性模型-Ridge/岭回归
Ridge/岭回归sklearn.linear_model.Ridge例子sklearn.linear_model.RidgeClassifierRidge/岭回归sklearn.linear_model.Ridgeclass sklearn.linear_model.Ridge(alpha=1.0, fit_intercept=True, normalize=False, copy_X=True, max_iter=None, tol=0.001, solver='auto', random_.原创 2020-06-17 21:33:55 · 736 阅读 · 0 评论 -
Skleran-线性模型-普通最小二乘法-LinearRegression
普通最小二乘法sklearn.linear_model.LinearRegression普通最小二乘法sklearn.linear_model.LinearRegressionclass sklearn.linear_model.LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=None)参数: fit_intercept:bool, optional, default True 是否计算此模型.原创 2020-06-16 23:05:20 · 721 阅读 · 0 评论 -
sklearn 模型总结
sklearn结构图Skleran 线性模型中文文档.sklearn结构图Skleran 线性模型模型解决问题实现说明普通最小二乘法回归手机$12导管$1原创 2020-06-11 22:06:51 · 813 阅读 · 0 评论 -
贝叶斯分类-理论基础
贝叶斯分类朴素贝叶斯极大似然估计贝叶斯估计贝叶斯分类朴素贝叶斯极大似然估计贝叶斯估计原创 2020-06-08 22:52:22 · 192 阅读 · 0 评论 -
sklearn 增量学习、partial_fit
增量学习(Incremental Learning)是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识。增量学习主要有两方面的应用:一是用于数据库非常大的情形,例如Web日志记录;二是用于流数据,因为这些数据随着时间在不断的变化,例如股票交易数据.另外在增量学习中,现有的增量学习算法大多采用决策树和神经网络算法实现的,它们在不同程度上具有以下两方面的缺点:一方面由于缺乏对整个样本集期望风险的控制,算法易于对训练数据产生过量匹配;另一方面,由于缺乏对训练数据有选择的原创 2020-06-02 22:57:27 · 7784 阅读 · 1 评论 -
k近邻法-理论基础
k近邻法距离度量k值选择分类决策规则k近邻(k-Nearest Neighbor,简称kNN)学习是一种常用的监督学习方法,给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测。在分类任务中可使用“投票法”,即选择这k个样本中出现最多的类别标记作为预测结果;在回归任务中可使用“平均法”,即将这k个样本的实值输出标记的平均值作为预测结果;还可基于距离远近进行加权平均或投票,距离越近的样本权重越大。k近邻是“懒惰学习(lazy learning)”的代表原创 2020-05-18 22:22:24 · 469 阅读 · 0 评论 -
决策树模型-理论基础
决策树模型信息增益基尼系数剪枝处理分类决策树是一种描述对实例进行分类的树形结构。决策树由结点(node)和有向边(directed edge)组成。结点有两种类型:内部节点(internal node)和叶节点(leaf node),内部结点表示一个特性或属性,也结点表示一个类。用决策树分类,从根结点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子节点;这时,每一个子节点对应着特征的一个取值。如此递归地对实例进行测试并分配,直到达到叶节点。最后将实例分到叶节点的类中。决策树学习的目的就是为原创 2020-05-11 22:11:05 · 1369 阅读 · 0 评论 -
线性模型--理论基础
线性模型基本形式线性回归逻辑回归线性判别分析多分类学习类别不均衡问题基本形式线性回归逻辑回归线性判别分析线性判别分析(Linear Discriminant Analysis,简称LDA)是一种经典的线性学习方法,LDA的思想非常朴素:给定训练样例集,设法将样例投影到一条直线上,使得同样样例的投影点尽可能地接近、异类样例的投影点尽可能的远;在对新样例进行分类时,将其投影...原创 2020-04-09 22:43:48 · 872 阅读 · 0 评论