![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 53
今天也学一点儿
勇敢的人先享受世界!
是经过挣扎失败挣扎再失败反复如此,直到某一刻量变达到质变
展开
-
百面深度学习 第二章:循环神经网络
基于变分推理的Droupout方法:提出对于同一个序列,在其所有时刻的循环连接上采用相同的丢弃方法,也就是说不同时刻丢弃的连接是相同的。四、RNN的长期依赖问题严重,因为其重复使用相同的循环模块(即W),导致网络在信息前向传播过程和误差反向传播过程中都出现了矩阵的幂,容易造成信息\梯度的消失或爆炸。总之,LSTM通过门控单元以及元胞状态单元的线性自循环,给梯度的长距离持续流通提供了路径,改变了之前RNN中信息和梯度的传播方式,解决了长期依赖。空洞卷积:增大感受野,是构建长期记忆功能所必需的。原创 2023-11-01 11:25:05 · 78 阅读 · 0 评论 -
【无标题】百面深度学习:第一章
普通卷积中,每个卷积核的所有通道与输入特征图的所有通道都作了连接,而一个卷积核又对应着输出特征图的一个通道,故相当于普通卷积在输入输出的“通道”维度是全连接的。分组卷积则将输入和输出通道都划分为同样的组数,让处于同一组数内的通道维度 实现“全连接”。作用:较少参数计算量为原来的1\g倍。原创 2023-06-30 13:36:21 · 94 阅读 · 0 评论