深度学习查询笔记
zhaoyuyu_nudt
这个作者很懒,什么都没留下…
展开
-
深度学习-面试
sharon:卷积核(滤波器)为什么都是奇数https://blog.csdn.net/qq_26598445/article/details/81285120sharon:卷积神经网络的卷积核的数量取多大合适?https://www.zhihu.com/question/65012947sharon:正则化方法:标签平滑https://blog.csdn.net/qwer7512090/article/details/100700261sharon:梯度消失、爆炸的解决方案https原创 2020-09-24 19:54:33 · 278 阅读 · 0 评论 -
深度学习: Epoch 是什么?
文章目录神经网络的训练梯度下降法Epochbatchsizeiterations神经网络的训练梯度下降法学习率: 步长更大= 学习率更高误差函数不断减小。如果训练数据过多, 无法一次性将所有数据送入计算。现将数据分成几个部分: batch分多个 batch , 逐一送入计算训练Epoch一个epoch , 表示: 所有的数据送入网络中, 完成了一次前向计算 + 反向传播的过程。由于一个epoch 常常太大, 分成 几个小的 baches .将所有数据迭代训练一次是不够的, 需要原创 2020-08-07 21:08:23 · 143804 阅读 · 11 评论 -
【ing 】CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)DNN指的是包含多个隐层的神经网络,如图1所示,根据神经元的特点,可以分为MLP、CNNs、RNNs等,下文在区分三者的时候,都从神经元的角度来讲解。MLP是最朴素的DNN,CNNs是encode了空间相关性的DNN,RNNs是encode进了时间相关性的DNN。CNN 专门解决图像问题的,可用把它看作特征提取层,放在输入层上,最后用ML原创 2020-08-06 09:25:59 · 1240 阅读 · 0 评论