机器学习
XuLu2013
这个作者很懒,什么都没留下…
展开
-
最小二乘法
最小二乘法(又称最小平方法),它通过最小化误差的平方和寻找数据的最佳函数匹配。最小二乘法也是一种优化方法,求目标函数的最优值。并且也可以用于曲线拟合,来解决回归问题。监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归原创 2017-09-20 21:32:38 · 672 阅读 · 0 评论 -
梯度下降法
梯度下降法梯度下降算法是批量梯度下降算法(BGD)、随机梯度下降算法(SGD)、小批量随机梯度下降(MSGD)算法的总称批量梯度下降算法是对所有样本求平均梯度后更新,随机梯度下降算法是随机选取一个样本计算梯度更新,小批量随机梯度下降算法是随机将所有样本分为几部分,然后选择一份求平均梯度更新。 对批量梯度下降法和随机梯度下降法的总结:批量梯度下降---最小化所有训练样本的损失原创 2017-09-21 23:42:43 · 379 阅读 · 0 评论 -
线性回归
线性回归【介绍】线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。其表达形式为为误差,服从均值为0的正态分布。回归分析中,根据自变量个数,且因变量只有一个,因变量和自变量之间是线性关系,又分为一元线性回归分析和多元线性回归分析。 【模型】 【Loss function】: 一种推原创 2017-09-30 00:00:52 · 360 阅读 · 0 评论 -
逻辑回归
逻辑回归【介绍】逻辑回归是用来解决分类问题的,典型的分类方式是二分类,可推广到多分类。线性回归的y是连续的,经过非线性函数sigmoid后将值约束在(0,1)区间内,设定一个阈值,通过判断与阈值的大小关系可将输入分成两类。Sigmoid函数 曲线原创 2017-09-30 19:08:38 · 280 阅读 · 0 评论