第二课堂阿里云

1.简单学习了梯度下降思想(导数与梯度是不一样的,一个是标量,一个是矢量):我们可以根据导数day/dx,对X进行迭代。则x=x-dy/ex,由于dy/dx的值比较大,每次迭代x跨的一步很长,则我们需要设定一个参数lr(也就是我们所说的学习率或步长)。x=x-lr×dy/dx

2.损失函数:得出真实值与预测值之间的差距,即通过最小化损失函数求解和评估模型,通常在统计学和机器学习中被用于模型的参数估计

3.认识了特征缩放(归一化):当某一特征值很大,会使预测值与真实值的差距很大,对损失函数影响很大。使用原因:使用单一指标对某事物进行评价井不合理,因此需要多指标综合评价方法。由于性质不同,不同评价指标通常具有不同的量钢和数量级。当备指标相差很大时,如果直接使用原始指标債计算综合指标,就会实出数值较大的指标在分析中的作用、削弱数值较小的指标在分析中的作用。为保证结果的可靠性,就要对各指标的原始数据进行特征缩放。 不使用特征缩放的缺点:知特征x1的数值是100左右,特征x2的数值是1左右,方程为y=w1x1+w2x2,则w1对y的影响就更大,对Loss的影响也更大,损失函数关于w1的梯度也更大,而损失函数关于w2的梯度却很小,因此两个特征就不能使用相同的学习率。不进行特征缩放的话,Emor Surface就是一个椭圆,梯度下降时不一定是朝着最优点(圆心),速度慢;如果进行了待征缩放,Error Surface会尽可能趋近于圆,因此梯度下降时会一直朝着最优点(圆心),所以速度快。

4.对某一模型进行计算机训练时,数据集分为训练集、验证集和测试集。训练集:更新参数,对数据进行周期训练;验证集:选出合适的参数;测试集:测试这些参数或数据的性能

5.认识了神经网络结构:分为①参数输入层:接收外部输入数据,通常是原始特征数据。②隐藏层:负责将输入数据进行变换,通过加权求和、激活函数等操作来提取更高层次的特征。网络中可以有一个或多个隐藏层,深层神经网络通常包含多个隐藏层。③输出层:将处理后的信息转换为最终输出,通常用于分类、回归等任务。通过这三个层可以得出我们想要的数据。

6.Relu函数:非线性激活函数-f(x) = max(0, x),当输入的X值小于0时,输出为0;当输入X值大于0时,输出为X。这种特性使得ReLU函数能够增加‌神经网络的非线性,提高网络的表达能力。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值