西瓜书学习笔记(线性回归)

datawhale的组队打卡活动,目前自己没啥干货,笔记也仅限于自己能够读懂,欢迎如果有看到的小伙伴交流。

第三章  线性模型

来源于datawhale开源学习

南瓜书课程:

一元线性回归

1.算法原理

1.1预习西瓜书上不太懂的公式

argmax(f(x))是使得 f(x)取得最大值所对应的变量点x(或x的集合)。arg即argument,此处意为“自变量

其余基本等同已经学习过的多元回归分析课程

1.2“发际线高度和计算机水平的例子”

成一个直线型关系,曲线去拟合数据,为什么不用曲线,这样考虑到了误差,容易过拟合。

f(x)=w x+b

误差若是点到直线的距离最小,即是正交回归。线性回归考虑的是平行于y轴的距离。

均方误差:竖向误差之和,保持正的就加了个平方。

 

有序多值(离散):比如饭量,有大小之分,小:1,中:2,大:3

无序多值(离散):比如颜色,黄[1,0,0],黑[0,1,0],白[0,0,1] 无明显先后顺序

1.3最小二乘估计

aigmin函数指的是,使得f(x)值最小的时候的x值

1.4 极大似然估计

考研概率论已经讲过了(略学)

x是X的n个独立同分布的样本,关于待估计参数,使得联合概率(似然函数)L取到最大时的待估计参数就是其估计值。

一般是连乘概率密度函数,用取对数变成加法,求导即可

可以考虑误差,加一个误差项,其服从均值为零的正态分布,从而可以导出来关于y的概率分布。

 

奇妙的现象,最大似然估计和最小二乘殊途同归

凸函数求值问题,(跟课本定义不太一样,向下凸为凸函数)

推导思路:1.证明E(w,b)是个凸函数。2.凸函数求最值来求出w和b

凸集:在集合内任意两个点,两点之间的任意连线仍属于这个集合。

凸函数:比如y=x(^2),中点函数值小于等于两端函数值平均(不一定中点,可以按比例分)(此处凹凸定义和高数书相反)

1.5 求解w和b

利用梯度去求。

 

多元函数的二阶导数即海塞矩阵

 

如果f(x)在凸集上的海塞矩阵是半正定的,就可以判定函数是凸函数。

 

图片来自南瓜书推导,跟着推导一遍后,感觉良好。

 

 

 

半正定矩阵判定方法:顺序主子式都是非负的。

 

即要求这个式子是不是非负的

 

中间一步的代换最为关键。

(印象这个推导也可以从方差定义中和的平方和平方的和角度着手。下来再总结一下)

 

到这里,基本能证明了E是一个凸函数,然后告知怎么使E最小,梯度为零即可,类似一元函数中的导数为零之处。

后面3.8 可以按照这种方法求解出来,略

注意可以把w向量化使得本应该用for循环的求和转变为numpy的矩阵求解,大大降低运算复杂度。见南瓜书的3-7的解析。

机器学习三要素(李航老师的《统计学习方法》也提到过)

  1. 模型:根据问题确定假设空间。(一次项还是二次项)
  2. 策略 根据评价标准,选择一个最优模型的策略,一般也会产生一个“损失函数”(均方误差,正交误差,找出损失函数)
  3. 算法 根据损失函数,确定最优模型(本例子中求出w,b,本次中闭式,能解出,比如神经网络,求不出来闭式)算法可以有很多,比如牛顿迭代法,梯度下降法。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
深度学习可以用于非线性回归预测。在深度学习中,可以使用神经网络来建模非线性关系。通过输入特征数据,神经网络可以学习到输入和输出之间的复杂映射关系,从而进行预测。 在非线性回归预测中,首先需要定义生成测试数据。一种常见的方法是使用平方函数加上噪声来生成数据。例如,可以使用公式y_data = np.square(x_data) + noise来生成非线性的数据。 接下来,可以使用神经网络来进行非线性回归预测。将x_data作为输入,通过神经网络得到预测值。然后,将预测值与真实值y_data进行比较,通过调整神经网络的参数,使预测值与真实值之间的差异最小化。这个过程称为训练神经网络。 通过深度学习的非线性回归预测,可以更好地建模复杂的数据关系,并且具有较好的预测性能。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Matlab算法学习指南(数值计算、机器学习、信号处理、图像处理)](https://download.csdn.net/download/weixin_41784475/88221221)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Tensorflow深度学习笔记(四)-利用神经网络预测非线性回归示例](https://blog.csdn.net/juyin2015/article/details/78679707)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

leo2vec

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值