机器学习
会流泪de鱼
这个作者很懒,什么都没留下…
展开
-
支持向量机(SVM)和逻辑回归(LR)
支持向量机(SVM)和逻辑回归(LR)支持向量机文档逻辑回归文档一、相同点1、都是常用的分类算法。2、如果不考虑核函数,LR和SVM都是线性分类算法,也就是说他们的分类决策面都是线性的。3、LR和SVM都是监督学习算法。4、LR和SVM都是判别模型判别模型会生成一个表示P(Y|X)的判别函数(或预测模型),而生成模型先计算联合概率p(Y,X)然后通过贝叶斯公式转化为条件概率。简单来...原创 2020-02-28 16:00:15 · 1853 阅读 · 0 评论 -
逻辑回归LR
逻辑回归LR1.逻辑回归模型我们知道线性回归的模型如下:(线性回归介绍)z=θ0+θ1x1+θ2x2+...+θnxn=θTxz=\theta_0+\theta_1x_1+\theta_2x_2+...+\theta_nx_n=\theta^Txz=θ0+θ1x1+θ2x2+...+θnxn=θTx而对于Logistic Regression来说,其思想也是基于线性回归(Lo...原创 2020-02-27 23:52:39 · 351 阅读 · 0 评论 -
支持向量机SVM
支持向量机一.简介 支持向量机(support vector machines)是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。由简至繁的模型包括:当训练样本线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机;当训练样本近似线性可分时,通过软间隔最大化,学习一个线性支持向量机;当训练样本线性不可分时,通过核技...原创 2020-02-26 23:57:20 · 677 阅读 · 0 评论 -
线性回归linear regression
线性回归linear regression1.普通的最小二乘法LinearRegression 拟合一个带有系数w=(w1,w2,...,wn)w=(w_1,w_2,...,w_n)w=(w1,w2,...,wn)的线性模型,使得数据集实际观测数据和预测数据(估计值)之间的残差平方和最小。其数学表达式为:minw=∣∣Xw−y∣∣2min_{w}=||Xw-y||^2minw=∣∣...原创 2020-02-26 12:17:45 · 466 阅读 · 0 评论