书名:《深度学习之PyTorch实战计算机视觉》-唐进民
目的
记录读书过程中有帮助的内容
方法
损失和优化
损失 |
| ||||||||
优化 | Page40-42 几种常见的优化函数如:梯度下降、批量梯度下降、随机梯度下降。 它们之间的区别仅在于用于参加训练的数据集的划分不同:
然后介绍一种“智能”的优化函数方法,Adam(Adaptive Moment Estimation,自适应时刻估计方法)。 作用: 在训练优化的过程中通过让每个参数都获得自适应的学习率,来达到优化质量和速度的双重提升。 | ||||||||
卷积神经网络
Page51-56
主要包括下面一些层:
卷积层 |
注意:不同通道的卷积核可能不同,这也论证了在卷积神经网络中,为什么经过卷积层的数据的通道数量可以增加,因为可能分别使用了不同的卷积核进行卷积。 | ||||||
池化层 |
| ||||||
全连接层 |
|