注1:
在训练模式下(model.train()),Dropout 层以 50% 的概率随机将一些神经元的输出置为零。在评估模式下(model.eval()),Dropout 层不会丢弃任何神经元的输出,但会将所有神经元的输出乘以 0.5(因为丢弃概率为 0.5)。
Dropout 是一种正则化技术,用于防止过拟合。它通过在训练过程中随机丢弃(即设置为零)一定比例的神经元及其连接,从而使得模型在训练过程中不会过度依赖某些特定的神经元。
Dropout 操作是针对神经元进行的,而不是权重矩阵。具体来说,Dropout 会随机选择一部分神经元,将它们的输出设置为零,而不修改权重矩阵的值。
注2:
Dropout() 操作对神经网络的概念图:
操作前:

操作后:

正文:
神经元: 在

最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



