自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 资源 (2)
  • 收藏
  • 关注

原创 Rethinking Image Inpainting via a Mutual Encoder-Decoder with Feature Equalizations

今天看到一篇文章结构很好的图片Inpainting 的文章,在这里推荐给大家。这是一个很经典的编码解码的方式,当然这种结构方式,也可以用在其他编码解码的问题上面。比如语义分割,其实我在研究了很多U-Net 网络之后发现在语义分割网络中,大家喜欢直接连接浅层和高层,或者在浅层和高层直接加上各种注意力。或者是对编码层加上各种注意力结构来提高网络的编码能力。我在这篇文章中看到了一个不同的连接方式。整个结构图如下。 我们可以发现,在这篇文章中,作者对编码层的不同层之间进行了操作。这种方式在语义分割中很少见。感

2021-01-21 11:43:18 1286

原创 权值衰减和L2正则化是一回事吗?

我们在神经网络的训练中经常会遇到权重衰减和正则化这两个概念。尤其是L2正则化,它跟权重衰减是不是一回事。我在这篇文章得到了解释Weight Decay == L2 Regularization? 正则化 正则化可以定义为我们为了减少泛化误差而不是减少训练误差而对训练算法所做的任何改变。有许多正规化策略。有的对模型添加额外的约束,如对参数值添加约束,有的对目标函数添加额外的项,可以认为是对参数值添加间接或软约束。如果我们仔细使用这些技术,这可以改善测试集的性能。在深度学习的环境中,大多数正则化技术都基于正

2021-01-08 10:51:18 555 1

Andrew Y. Ng论文

这是我在网络上下载的一些Andrew Y. Ng关于深度学习的论文。现在拿出来跟大家分享。一起学习学习

2014-12-28

深度学习sparseae_exercise

此代码不是原创 是参考斯坦福大学的教程 还有大牛blog中的代码.我只是自己敲出来自己研究研究。现在把拿出来大家分享分享.

2014-12-28

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除