Datawhale AI夏令营 — 学习笔记

线性模型

线性模型指的是在模型中用线性方程或线性函数来描述变量之间的关系,即变量之间的函数关系可以用一条直线来描述。例如,在回归分析中,如果自变量和因变量之间存在线性关系,那么我们就可以使用线性回归模型来描述它们之间的关系

分段线性曲线

分段线性曲线(Piecewise Linear Curve)是由一系列线段组成的曲线,每个线段连接两个相邻的控制点。在计算机图形学和计算机辅助设计中,分段线性曲线常用于表示平滑的曲线形状。

优势:

简单直观:分段线性曲线的构造和计算相对简单,易于理解和实现。
灵活性:通过调整控制点的位置和数量,可以创建各种形状的曲线,包括直线、曲线、曲面等。
低存储需求:由于只需要存储控制点的坐标,分段线性曲线的存储需求相对较低。


应用场景:

计算机图形学:分段线性曲线常用于绘制平滑的曲线和曲面,如二维图形的绘制、三维模型的建模等。
计算机辅助设计:分段线性曲线可用于绘制平滑的曲线形状,如CAD软件中的绘图工具、曲线编辑工具等。
数据可视化:分段线性曲线可用于绘制数据的趋势线、插值曲线等,帮助分析和展示数据。

模型变形

其实还可以对模型做更多的变形,不一定要把 Hard Sigmoid 换成 Soft Sigmoid。HardSigmoid 可以看作是两个修正线性单元(Rectified Linear Unit,ReLU)的加总,ReLU 的图像有一个水平的线,走到某个地方有一个转折的点,变成一个斜坡,其对应的公式为c ∗ max(0, b + wx1) (1.29)max(0, b + wx1) 是指看 0 跟 b + wx1 谁比较大,比较大的会被当做输出;如果 b + wx1 < 0,输出是 0;如果 b + wx1 > 0,输出是 b + wx1。通过 w, b, c 可以挪动其位置和斜率。把两个 ReLU 叠起来就可以变成 Hard 的 Sigmoid,想要用 ReLU,就把 Sigmoid 的地方,换成max(0, bi + wijxj )。

Sigmoid 或 ReLU 称为神经元(neuron),很多的神经元称为神经网络(neural network)。人脑中就是有很多神经元,很多神经元串起来就是一个神经网络,跟人脑是一样的。人工智能就是在模拟人脑。神经网络不是新的技术,80、90 年代就已经用过了,后来为了要重振神经网络的雄风,所以需要新的名字。每一排称为一层,称为隐藏层(hiddenlayer),很多的隐藏层就“深”,这套技术称为深度学习。

但是做到目前为止,还没有真的发挥这个模型的力量,2021 年的数据到 2 月 14 日之前的数据是已知的。要预测未知的数据,选 3 层的网络还是 4 层的网络呢?假设今天是 2 月 26日,今天的观看次数是未知的,如果用已经训练出来的神经网络预测今天的观看次数。要选 3层的,虽然 4 层在训练数据上的结果比较好,但在没有看过的数据的结果更重要。应该选一个在训练的时候,没有看过的数据上表现会好的模型,所以应该选 3 层的网络。深度学习的训练会用到反向传播(BackPropagation,BP),其实它就是比较有效率、算梯度的方法。

机器学习框架

训练集就要拿来训练模型,训练的过程是 3 个步骤。

1. 先写出一个有未知数 θ 的函数,θ 代表一个模型里面所有的未知参数。fθfθ(x) 的意思就是函数叫 fθfθ(x),输入的特征为 x,;

2. 定义损失,损失是一个函数,其输入就是一组参数,去判断这一组参数的好坏;

3. 解一个优化的问题,找一个 θ,该 θ 可以让损失的值越小越好。让损失的值最小的 θ 为θ∗,

 即θ∗ = argminθL (1.31)有了 θ∗ 以后,就把它拿来用在测试集上,也就是把 θ∗ 带入这些未知的参数,本来 fθfθ(x)里面有一些未知的参数,现在 θ 用 θ∗ 来取代,输入是测试集,输出的结果存起来,上传到Kaggle 就结束了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值