线性回归

【学习任务】

  1. 线性回归损失函数的极大似然推导:西瓜书公式3.4除了用最小二乘法以外,怎么用极大似然推得?
  2. 一元线性回归的参数求解公式推导:西瓜书公式3.7和3.8怎么推来的?
  3. 多元线性回归的参数求解公式推导:西瓜书公式3.10和3.11怎么推来的?
  4. 线性回归损失函数的最优化算法:什么是批量梯度下降、随机梯度下降、小批量梯度下降?

问题1:对于连续目标函数的学习问题,当误差服从正态分布,而且在没有任何先验知识的条件下,最大似然估计与最小均方误差是等价的,因此可以用最大似然估计来求解公式3.4,如下:

        给定数据集D={(x1,y1),(x2,y2),...,(xn,yn)};记样本为\left ( x^{i}, y^{i}\right ),对样本的预测为\hat{y}^{\left ( i \right )}\mid _{\theta },该记法表示该预测依赖于参数\theta的选取。我们有y=\hat{y}\mid _{\theta }+\epsilon,其中,\epsilon是一个误差函数,假设服从正态分布即\epsilon \sim N\left ( 0,\sigma^{2} \right ),因此有\bg_white y-\hat{y}\mid_{\theta }\sim N\left ( 0,\theta^{2} \right ),即y\simN\left(\hat{y}\mid_\theta, \sigma ^{2} \right ),要求\theta的极大似然估计,也就是说我们现在得到的这个真实存在的y在\theta不同的取值下出现概率最大,我们来看这个概率,令L\left ( \theta \right )=P(y|x;\theta)=\prod_{i=1}^{m}\frac{1}{\sqrt{2\pi }\sigma }exp(-\frac{\left ( y^{i} -\hat{y}^{i}\mid _{\theta}\right )^{2}}{2\sigma}),为了简化计算,令l(\theta)=logL(\theta)=mlog\frac{1}{\sqrt{2\pi }}+\sum_{i=0}^{m}(-\frac{\left(y^{i}-\hat{y}^{i}\mid_{\theta} \right )^{2}}{2\sigma}),要让L(\theta)最大,即求l(\theta)最大,即让\sum_{i=0}^{m}(y^{i}-\hat{y}^{i}\mid _{\theta})^{2}取得最小值,当样本模型选择线性模型y=wx+b时,即求\bg_white \sum_{i=0}^{m}(y^{i}-wx^{i}-b)^{2}的最小值;

参考链接:

https://www.cnblogs.com/diegodu/p/5725139.html

问题2:

问题3:

求导公式:

https://en.wikipedia.org/wiki/Matrix_calculus#Vector-by-vector

问题4:

批量梯度下降法是最原始的形式,它是指在每一次迭代时使用所有样本来进行梯度的更新;

随机梯度下降法不同于批量梯度下降,随机梯度下降是每次迭代使用一个样本来对参数进行更新。使得训练速度加快。

小批量梯度下降,是对批量梯度下降以及随机梯度下降的一个折中办法。其思想是:每次迭代 使用 ** batch_size** 个样本来对参数进行更新。

参考链接:

https://www.cnblogs.com/lliuye/p/9451903.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值