深度学习
用心把天空锁住
这个作者很懒,什么都没留下…
展开
-
LSTM与GRU神经网络的理解
LSTM是什么LSTM即Long Short Memory Network,长短时记忆网络。它其实是属于RNN的一种变种,可以说它是为了克服RNN无法很好处理远距离依赖而提出的。我们说RNN不能处理...转载 2019-08-10 16:42:00 · 656 阅读 · 0 评论 -
生成对抗网络GAN理解
据有关媒体统计:CVPR2018的论文里,有三分之一的论文与GAN有关由此可见,GAN在视觉领域的未来多年内,将是一片沃土(CVer们是时候入门GAN了)。而发现这片矿源的就是GAN之父,Goodfellow大神。文末有基于keras的GAN代码,有助于理解GAN的原理生成对抗网络GAN,是当今的一大热门研究方向。在2014年,被Goodfellow大神提出来,当时的G神还只是蒙特利尔大学...原创 2019-08-10 17:14:36 · 191 阅读 · 0 评论 -
边框回归(Bounding Box Regression)
版权声明:本文为博主原创文章,...原创 2019-08-11 10:21:27 · 129 阅读 · 0 评论 -
RCNN,fast RCNN,faster RCNN比较归纳总结
原文地址:http://blog.csdn.net/qq_17448289/article/details/52871461一、基于Region Proposal(候选区域)的深度学习目标检测算法Re...转载 2019-08-11 10:30:55 · 424 阅读 · 0 评论 -
深度学习优化函数
版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 ...转载 2019-08-20 14:42:48 · 151 阅读 · 0 评论 -
从SGD到adam
楔子前些日在写计算数学课的期末读书报告,我选择的主题是「分析深度学习中的各个优化算法」。在此前的工作中,自己通常就是无脑「Adam 大法好」,而对算法本身的内涵不知所以然。一直希望能抽时间系统的过一遍优化算法的发展历程,直观了解各个算法的长处和短处。这次正好借着作业的机会,补一补课。本文主要借鉴了 @Juliuszh 的文章[1]思路,使用一个 general 的框架来描述各个梯度下降变种算法。实...转载 2019-08-20 14:47:23 · 492 阅读 · 0 评论 -
深度学习防止过拟合的方法
过拟合即在训练误差很小,而泛化误差很大,因为模型可能过于的复杂,使其”记住”了训练样本,然而其泛化误差却很高,在传统的机...转载 2019-08-11 15:16:19 · 142 阅读 · 0 评论 -
CNN_SVM
先用CNN提取特征,之后用SVM分类,平台是TensorFlow 1.6.0-rc0,python2.7这个是我的一个...转载 2019-09-11 10:22:01 · 4449 阅读 · 5 评论