- 博客(11)
- 收藏
- 关注
原创 笔记-b站刘二大人《pytorch深度学习实践》-第十一讲
红色的里面是一个残差块,包含两个weight layer。第一个weight layer做conv1卷积,经过relu,送入第二个weight layer,在第二个weight layer做conv2卷积,输出与x相加,最后做relu。示意图及模块代码如下图。Residual Net 做了 F(x) + x 的操作,要求两个张量维度要一样,即通道、高度、宽度要一样。下图中,红色的是residual block。
2023-09-27 14:29:25 106 1
原创 笔记-b站刘二大人《pytorch深度学习实践》-第七讲
比较了一下损失,sigmoid>softplus>ReLU,测得准确率是ReLU>softplus>sigmoid。激活函数分别用了sigmoid、ReLU、softplus。
2023-09-25 11:02:11 54 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人