- 博客(2)
- 资源 (2)
- 收藏
- 关注
原创 Rethinking Image Inpainting via a Mutual Encoder-Decoder with Feature Equalizations
今天看到一篇文章结构很好的图片Inpainting 的文章,在这里推荐给大家。这是一个很经典的编码解码的方式,当然这种结构方式,也可以用在其他编码解码的问题上面。比如语义分割,其实我在研究了很多U-Net 网络之后发现在语义分割网络中,大家喜欢直接连接浅层和高层,或者在浅层和高层直接加上各种注意力。或者是对编码层加上各种注意力结构来提高网络的编码能力。我在这篇文章中看到了一个不同的连接方式。整个结构图如下。 我们可以发现,在这篇文章中,作者对编码层的不同层之间进行了操作。这种方式在语义分割中很少见。感
2021-01-21 11:43:18 1286
原创 权值衰减和L2正则化是一回事吗?
我们在神经网络的训练中经常会遇到权重衰减和正则化这两个概念。尤其是L2正则化,它跟权重衰减是不是一回事。我在这篇文章得到了解释Weight Decay == L2 Regularization? 正则化 正则化可以定义为我们为了减少泛化误差而不是减少训练误差而对训练算法所做的任何改变。有许多正规化策略。有的对模型添加额外的约束,如对参数值添加约束,有的对目标函数添加额外的项,可以认为是对参数值添加间接或软约束。如果我们仔细使用这些技术,这可以改善测试集的性能。在深度学习的环境中,大多数正则化技术都基于正
2021-01-08 10:51:18 555 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人