Datawhale X 李宏毅苹果书 AI夏令营第五期 task02

一、相关知识点笔记

一部分手写笔记

 训练数据:指的是用于机器学习算法训练的数据集合。这些数据集合通常包含已知的输入和对应的输出,而机器学习模型会基于这些数据来学习如何进行预测和决策。在训练数据中,每个输入都会被标注一个正确的输出,即标签。最终,通过不断优化模型的训练和调整,机器学习算法可以使用这些已知的数据来作出预测,并学习发现输入和输出之间的规律。

 平均误差Mean Error:是指在等精度测量中,所有测量值的随机误差的算术平均值。它可以通过多次测量在相同条件下得出,用来评估测量的精度和准确度。通常用标准差或方均根误差来计算。

梯度下降gradient descent:“梯度下降”是一个常用的优化算法,用于求解目标函数的最优解或局部最优解。它通过不断调整模型参数的值,使目标函数的值逐渐下降。具体来讲,每次迭代时,它计算目标函数的梯度(即函数在当前点处的斜率),并朝着梯度的反方向更新参数值,以使函数值下降。这个过程一直持续到目标函数的值收敛(即不再变化或变化极小),此时,算法得到的参数值就是目标函数的最优解或近似最优解。

二、模型假设 - 线性模型

用 2020 年的 12 月 31 日的观看人次预测 2021 年 1 月 1 日的观看人次,用 2021 年 1 月 1 日的观看人次预测 1 月 2 日的观看人次,用 1 月 2 日的观看人次去预测 1 月 3 日的观看人次⋯⋯每天都做这件事,一直做到 2 月 14 日,得到平均的值

一元线性模型(单个特征)

多元线性模型(多个特征)

三、分段线性曲线

分段线性曲线(piecewise linear curve)可以看作是一个常数,再加上一堆蓝色的函数。分段线性曲线可以用常数项加一大堆的蓝色函数组合出来,只是用的蓝色函数不一定一样。要有很多不同的蓝色函数,加上一个常数以后就可以组出这些分段线性曲线。如果分段线性曲线越复杂,转折的点越多,所需的蓝色函数就越多。

Sigmoid 函数来逼近 Hard Sigmoid,如图 1.10 所示。Sigmoid 函数的表达式为

其横轴输入是 x1,输出是 y,c 为常数。

四、更强大复杂的模型-1元N次线性模型

在模型上,我们还可以优化,选择更复杂的模型,但是要注意过拟合。

Step1优化:2个input的四个线性模型合并到一个线性模型

Q: 优化是找一个可以让损失最小的参数,是否可以穷举所有可能的未知参数的值?A:只有 w 跟 b 两个参数的前提之下,可以穷举所有可能的 w 跟 b 的值,所以在参数很少的情况下。甚至可能不用梯度下降,不需要优化的技巧。但是参数非常多的时候,就不能使用穷举的方法,需要梯度下降来找出可以让损失最低的参数。

(持续更新...)

  • 6
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值