深度学习
穿越5极限
主要研究计算机视觉和机器学习
展开
-
深度学习经历过程(caffe学习过程)
深度学习记录一、 第一阶段:基本知识的学习小菜是从2016年6月初开始接触强大而神秘的Deep Learning,之前一直在学习传统的机器学习,学习DL之前,所接触的DL也就是每次参加从实验室的组会,听师姐汇报一些DL的理论知识,还有就是每次和一些大牛聊天的时候听他们说DL是多么的强大多么的牛X。今年出来实习,在我的实习老师的带领下终于可以开始DL之旅了,所以写点学习的记录,希望自己能在这原创 2016-09-09 15:54:19 · 9033 阅读 · 0 评论 -
Neural Architecture Search with Reinforcement Learning论文总结
Neural Architecture Search with Reinforcement Learning论文总结论文:《Neural Architecture Search with Reinforcement Learning》 网站链接(开源代码):https://github.com/tensorflow/models1. 概述 此论文出自google Brain并发表与原创 2018-01-16 20:30:15 · 11226 阅读 · 3 评论 -
SENet学习笔记
SENet总结论文:《Squeeze-and-Excitation Networks》 论文链接:https://arxiv.org/abs/1709.01507 代码地址:https://github.com/hujie-frank/SENet1. 概述 此论文是由Momenta公司所作并发于2017CVPR,论文中的SENet赢得了ImageNet最后一届(ImageNe原创 2018-01-16 19:59:20 · 33024 阅读 · 4 评论 -
Densenet学习笔记
Densenet总结 论文:《Densely Connected Convolutional Networks》 论文链接:https://arxiv.org/pdf/1608.06993.pdf 代码的github链接:https://github.com/liuzhuang13/DenseNet Caffe版本的GitHub链接:https://github.com/shicai/原创 2018-01-16 19:38:08 · 5172 阅读 · 0 评论 -
Visualizing and Understanding Convolutional Networks翻译总结
Zfnet论文:《Visualizing and Understanding Convolutional Networks》1. 概述这篇论文主要的贡献是将卷及神经网络的隐藏层的特征进行可视化,后面通过可视化的展示来分析如何构建更好的网络结构。最后还描述了该网络中的每层对整体分类性能的贡献,还对了该模型在其他数据集上取得的成绩:仅仅是对softmax分类器重新训练,该模型击败了原创 2016-08-31 09:35:52 · 12227 阅读 · 3 评论 -
YOLO论文学习笔记
之前一直在用yolo做目标检测,速度上的效果确实比rcnn、fast_rcnn以及faster_rcnn快得多了。其主要的训练机制跟它们也不一样,把检测看作是一种回归的问题,其主要的特点就是: 1 整个图片进行训练,检测的时候也是整个图片进行检测直接获得bounding boxes和class probabilities。 2 损失函数的设计。3 针对lager object和small o转载 2017-04-10 21:32:17 · 4787 阅读 · 0 评论 -
R-CFN学习笔记
论文:《R-FCN: Object Detection via Region-based Fully Convolutional Networks》概述 此论文是微软亚洲研究院的代季峰在2016年提出来的一篇目标检测的很牛的论文,相比较以前的rcnn、spp、fast_rcnn以及faster_rcnn在检测速度上有了很大的提升,我自己也在caffe框架里面用了R-FCN,网络结构主要是用了re原创 2016-12-21 17:17:39 · 1182 阅读 · 0 评论 -
Network in Network学习笔记
论文:《Network in Network》 概述: 此论文是2014年的一篇比较厉害的paper,该论文改进了传统的cnn网络使得网络模型参数很少,也为后续的Googlenet和resnet以及目标检测网络中提出的全卷积共享提供了一个很好的开端,小菜也是在学习主流的深层网络模型的论文时发现许多论文中都有提到NIN这篇论文,所以专门挑了时间看了这篇论文,觉得这篇论文的确不错,论文中的网络整原创 2016-12-14 17:33:45 · 7918 阅读 · 0 评论 -
计算机视觉(ComputerVision, CV)相关领域的网站链接
以下链接是关于计算机视觉(ComputerVision, CV)相关领域的网站链接,其中有CV牛人的主页,CV研究小组的主页,CV领域的paper,代码,CV领域的最新动态,国内的应用情况等等。打算从事这个行业或者刚入门的朋友可以多关注这些网站,多了解一些CV的具体应用。搞研究的朋友也可以从中了解到很多牛人的研究动态、招生情况等。总之,我认为,知识只有分享才能产生更大的价值,真诚希望下面的链接能对朋转载 2016-10-21 14:23:56 · 3130 阅读 · 0 评论 -
Very Deep Convolutional Networks For Large-Scale Image Recognition论文翻译总结
VGGnet论文:《Very Deep Convolutional Networks For Large-Scale Image Recognition》1. 概述本文是牛津大学 visual geometry group(VGG)Karen Simonyan 和AndrewZisserman 于2014年撰写的论文,主要探讨了网络深度对于网络的重要性,建立了16-19原创 2016-08-31 09:40:28 · 2763 阅读 · 0 评论 -
ImageNet Classification with Deep Convolutional Neural Networks翻译总结
Alexnet总结笔记论文:《ImageNet Classification with Deep Convolutional Neural Networks》1 网络结构网络使用了逻辑回归目标函数求得参数最优化,此网络结构如图1所示,一共有8层网络:5层卷积层、3层全连接层,还有最前面的是图像输入层。1) 卷积层一共有5层卷积层,由结构图可知,此结构用到了2个GPU并行计算部原创 2016-08-31 09:31:13 · 1474 阅读 · 0 评论 -
BN(Batch Normalization)总结--Accelerating Deep Network Training by Reducing Internal Covariate Shift
BN(batch normalization)总结论文:《Batch Normalization: Accelerating Deep Network Training by ReducingInternal Covariate Shift》小菜这里也是看了许多前辈的博客总结的,这里也感谢前辈的无私。。。。。1. 概述核心:Ø 加入特殊归一化层BN层此论文是Go原创 2016-08-31 09:48:32 · 3816 阅读 · 0 评论 -
Going Deeper with Convolutions--Googlenet论文总结
Googlenet总结论文:>注:还需要深入研究Inception的结构,此处只是简单的介绍了一开始的Inception,后来Google对Inception的结构又升级了。1. 概述核心:Ø 引入Inception结构Ø 应用averagepooling代替FCØ 加入辅助softmax防止梯度消失本文是Google公司的Christian Sz原创 2016-08-31 09:43:49 · 2371 阅读 · 1 评论 -
NASNet学习笔记
NASNet总结论文:《Learning Transferable Architectures for Scalable Image Recognition》 注 先啥都不说,看看论文的实验结果,图1和图2是NASNet与其他主流的网络在ImageNet上测试的结果的对比,图3是NASNet迁移到目标检测任务上的检测结果,从这图瞬间感觉论文的厉害之处了,值得阅读好几篇。原创 2018-01-16 20:45:49 · 31607 阅读 · 4 评论