![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 93
Lies.
22岁,科研民工。
展开
-
【深度学习】损失函数(1):Cross-Entropy Loss 交叉熵损失(代价函数和损失函数的区别+交叉熵与KL散度、信息熵/熵之间的关系)
优化我们的神经网络,使计算出的交叉熵最小,这就是交叉熵损失的基本思想原创 2023-03-23 22:39:38 · 769 阅读 · 0 评论 -
【深度学习】网络训练原理:前向传播+反向传播
有了反向传播后,每有一个样本经过网络,就可以对网络的参数进行一次更新,而不需将所有样本都经过网络后再更新了原创 2023-03-18 20:08:58 · 1224 阅读 · 0 评论 -
【深度学习】 梯度下降算法及其改进:BGD\SGD\MBGD+MomentumGD\AdaGrad\RMSProp\Adam
梯度下降算法详解原创 2023-03-15 21:31:00 · 279 阅读 · 0 评论 -
【深度学习】激活函数:原理+常见激活函数(Sigmoid\Tanh\ReLU\Leaky ReLU\Softmax)
线性模型的表达能力不够。引入非线性激活函数,可使深层神经网络的表达能力更加强大。原创 2023-03-14 22:03:03 · 589 阅读 · 0 评论 -
【深度学习】网络训练的原理:什么是梯度下降?学习率的作用是什么?
既然梯度方向是函数值增加的方向,那么自变量沿着这个方向走下去,函数值就会越来越大。反之,梯度的反方向就是函数值减小的方向,沿着梯度的反方向走下去,函数值就会越来越小原创 2023-03-14 16:59:38 · 606 阅读 · 0 评论