深度学习相关资料来源
看不见我呀
坚持就是胜利
展开
-
深度学习入门教程
1.深度学习的中文资料:1.1李宏毅的中文视频(2017)1.2deepleaning bookhttp://www.ipaomi.com/2017/10/23/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0-%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C-%E4%B8%AD%E6%96%87-%E5%85%A5%E9%97%A8-%原创 2017-12-20 15:15:44 · 876 阅读 · 0 评论 -
NMS
http://blog.csdn.net/shuzfan/article/details/50371990本文介绍了用卷积神经网络改进传统NMS的方法,文章来源于2016ICLR《A CONVNET FOR NON-MAXIMUM SUPPRESSION》,该文章状态为正在审核。1-传统的NMS2-NMS-ConvNet2-1 映射制作score转载 2018-01-25 18:40:33 · 1518 阅读 · 0 评论 -
人脸检测——CascadeCNN
http://blog.csdn.net/shuzfan/article/details/50358809本文介绍的人脸检测方法,来源于2015CVPR《A Convolutional Neural Network Cascade for Face Detection》。本篇文章的方法可以说是对经典的Viola jones方法的深度卷积网络实现,并没有让人眼前一亮的地方,但依然有以下几转载 2018-01-25 18:31:27 · 3112 阅读 · 0 评论 -
resnext
http://blog.csdn.net/u014380165/article/details/71667916论文:Aggregated Residual Transformations for Deep Neural Networks论文链接:https://arxiv.org/abs/1611.05431这是一篇发表在2017CVPR上的论文,介绍了R转载 2018-01-25 17:48:44 · 348 阅读 · 0 评论 -
反卷积(转置卷积)总结
http://blog.csdn.net/qq_16949707/article/details/716990751 反卷积就是卷积,只是中间padding了下,然后再做卷积。 这里有个动态图,transposed就是代表反卷积(转置卷积) https://github.com/vdumoulin/conv_arithmetic 算法实现上也是先padding然后卷积 2 数学转载 2018-01-25 17:54:58 · 461 阅读 · 0 评论 -
Batch Normalize译文
http://noahsnail.com/2017/09/04/2017-9-4-Batch%20Normalization%E8%AE%BA%E6%96%87%E7%BF%BB%E8%AF%91%E2%80%94%E2%80%94%E4%B8%AD%E6%96%87%E7%89%88/文章作者:Tyan博客:noahsnail.com | CSDN | 简书声明:转载 2018-01-05 11:37:51 · 655 阅读 · 0 评论 -
Tensorflow教程
https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/转载 2017-12-25 10:54:26 · 188 阅读 · 0 评论 -
CNN 模型压缩与加速算法综述
https://www.qcloud.com/community/article/678192MethodCompression ApproachSpeed ConsiderationSqueezeNetarchitectureNoDeep CompressionweightsNo转载 2017-12-25 10:29:16 · 424 阅读 · 0 评论 -
关于resnet
懒得自己写,直接粘贴了作者:知乎用户链接:https://www.zhihu.com/question/53224378/answer/194230021来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。1.分析一(可以当做是修正网络的思想)我就简单补充一点,为什么同一映射 I(x)=x 这一项前的系数为1而不是1/2。一方面,实原创 2017-12-22 11:34:12 · 279 阅读 · 0 评论 -
常用激活函数
关于激活函数 常用激活函数每个激活函数(或非线性函数)的输入都是一个数字,然后对其进行某种固定的数学操作。下面是在实践中可能遇到的几种激活函数:————————————————————————————————————————左边是Sigmoid非线性函数,将实数压缩到[0,1]之间。右边是tanh函数,将实数压缩到[-1,1]。———————————————————转载 2017-12-21 18:45:04 · 740 阅读 · 0 评论 -
DeepLearning 笔记(一) ImageNet Classification with Deep Convolutional Neural Networks
DeepLearning 笔记(一) ImageNet Classification with Deep Convolutional Neural Networks1. ReLU2. Multi-GPU3. LRN4. Overlapping Pooling5. Reducing Overfiltering数据扩增Dropout6. weight decay转载 2017-12-21 17:36:21 · 373 阅读 · 0 评论 -
从LeNet-5到DenseNet
http://blog.csdn.net/Y0W1as5eg37urFdS/article/details/78573990本文作者山隹木又,本文首发于作者的知乎专栏《サイ桑的炼丹炉》, AI研习社获其授权发布。卷积、池化等操作不再赘述,总结一下从LeNet到DenseNet的发展历程。图1. LeNet-5 网络结构 一、LeNe转载 2017-12-20 21:44:40 · 872 阅读 · 0 评论 -
2017需要关注的论文
1.https://www.jiqizhixin.com/articles/2017-08-06-6CVPR 2017完全指北:深度学习与计算机视觉融合的一年,未来又会是什么?By 机器之心2017年8月06日 13:15当地时间 7 月 21 日到 16 日,夏威夷火奴鲁鲁迎来了 2017 年计算机视觉与模式识别会议(CVPR)。今年的会议收到转载 2017-12-20 16:10:02 · 712 阅读 · 0 评论 -
R-FCN算法及Caffe代码详解
http://blog.csdn.net/u014380165/article/details/72848254版权声明:本文为博主原创文章,未经博主允许不得转载。目录(?)[-]要解决的问题算法概要算法详解Caffe的代码总结本篇博客一方面介绍R-FCN算法(NISP2016文章),该算法改进了Faster RCNN,另转载 2018-01-26 18:07:02 · 999 阅读 · 0 评论