![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络|深度学习| MATLAB
文章平均质量分 93
沈子恒
计算机视觉 自然语言处理 推荐系统 架构设计
展开
-
关于Matconvnet中Conv-ReLU-Pool-NormBatch的总结与思考
最近一直在思考是出国还是找工作的事,和三年前一样又到了做决定的时候。真的很心累,捡起了我的MatConvNet,重新看一了一下牛津派的编程艺术。只有沉浸式的工作,才能安静下来吧。1. vl_nncov - CNN的卷积操作Y = VL_NNCONV(X, F, B)计算图像X与滤波器组F/偏置B之间的卷积操作。如果B是一个空矩阵,就是没有偏置参与;如果F是一个空矩阵,图像并不进行卷积操...原创 2018-07-27 20:57:36 · 3747 阅读 · 2 评论 -
关于BatchNorm的理解与讨论
参考论文:Ioffe S, Szegedy C. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift[J]. international conference on machine learning, 2015: 448-456.期刊水平:ICML2015参...原创 2018-07-27 21:31:48 · 12646 阅读 · 1 评论 -
注意力机制最新综述解读
注意力模型(Attention Model,AM)已经成为神经网络中的一个重要概念,并在不同的应用领域进行了充分的研究。这项调查提供了一个结构化和全面的概述关于attention的发展。我们回顾了注意力机制被纳入的不同的神经网络结构,并展示了注意力如何提高神经网络的可解释性。最后,我们讨论了在实际应用中,注意力机制取得的重要影响。我们希望这项调查能够为注意力模型提供一个简明的介绍,并在开发应用方法...原创 2019-04-16 18:02:24 · 189797 阅读 · 13 评论