论文阅读
玄云飘风
这个作者很懒,什么都没留下…
展开
-
【论文快读】Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
链接:https://arxiv.org/abs/1406.4729作者:Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun摘要:SPP可以用于:1.大幅提高各种cnn的性能:现有网络对输入图片的size要求一定,这种“人工设定”可能对accuracy造成影响。本文提出的SPP-net则是“input size/scale free”的,...原创 2018-05-09 20:59:05 · 305 阅读 · 0 评论 -
【论文快读】SSD(2015)
作者:Liu Wei等链接:https://arxiv.org/abs/1512.02325摘要:Faster-RCNN计算成本太高,在实时应用中表现较差(7FPS),相应的速度优化方案也大多以牺牲精度为前提,本文能够实现和Faster-RCNN精度相近并达到59FPS,且速度和精度都好于当时的YOLOv1。...原创 2018-11-01 09:43:49 · 212 阅读 · 0 评论 -
【论文快读】DSSD
作者:Cheng-Yang Fu, Wei Liu等链接:https://arxiv.org/abs/1701.06659摘要:本文以新的ResNet101为基础搭建SSD,并引入反卷积层,搭建了DSSD,在小物体检测上实现了优异的效果。...原创 2018-11-02 14:32:03 · 1512 阅读 · 0 评论 -
【论文快读】fall detection
在找人体检测的看到一篇做跌倒检测的survey,感觉挺好玩的,上传备查:New Advances and Challenges of Fall Detection Systems: A Surveyhttps://download.csdn.net/download/tfcy694/10866777...原创 2018-12-21 13:36:36 · 804 阅读 · 0 评论 -
【论文快读】VGG-Net(2014)
标题:VERY DEEP CONVOLUTIONAL NETWORKSFOR LARGE-SCALE IMAGE RECOGNITION链接:https://arxiv.org/abs/1409.1556作者:Karen Simonyan等摘要:VGG和GoogLeNet同期,在ZF-Net和OverFeat之后,其贡献是在比之前的架构大大增加了深度,同时在ZF-Net的基础上完善了小卷...原创 2019-02-17 14:31:04 · 360 阅读 · 0 评论 -
【论文阅读】GoogLeNet(2014)
题目:Going deeper with convolutions链接:https://arxiv.org/abs/1409.4842作者:Christian Szegedy等摘要:这是一篇挺好玩的文章,一方面模块“Inception”和标题“go deeper”致敬了经典科幻电影盗梦空间(《Inception》&“We need to go deeper”);另一方面GoogL...原创 2019-02-17 22:16:41 · 440 阅读 · 0 评论 -
【论文快读】DCGAN(2014)
标题:UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS作者:Alec Radford等链接:https://arxiv.org/pdf/1511.06434.pdf摘要:Intro当时的CNN(LeNet、AlexNet等)主要用于监督学习,本文提出的D...原创 2019-02-23 19:27:05 · 260 阅读 · 0 评论 -
【论文快读】Explaining and Harnessing Adversarial Examples(2015)
作者:Ian J. Goodfellow, Jonathon Shlens, Christian Szegedy 链接:https://arxiv.org/abs/1412.6572 摘要:原创 2018-06-12 22:17:55 · 1768 阅读 · 0 评论 -
【论文快读】Intriguing properties of neural networks(2014)
作者:Christian Szegedy, Wojciech Zaremba等 链接:https://arxiv.org/abs/1312.6199 摘要: 本文的工作包括两个方面: 1. 神经网络的一个high level units和随机若干个units的线性组合之间并没有本质上的区别。所以在高level中,发挥作用的是整个网络的空间结构,而不是单个神经元。 2. 通过对同一in...原创 2018-06-07 17:40:12 · 1457 阅读 · 0 评论 -
【论文快读】DeepFool(2016)
作者:Seyed-Mohsen Moosavi-Dezfooli, Alhussein Fawzi, Pascal Frossard École Polytechnique Fédérale de Lausanne 链接:https://arxiv.org/abs/1511.04599 摘要:原创 2018-06-05 17:41:05 · 2260 阅读 · 0 评论 -
【论文快读】Faster RCNN
本文主要解决了Fast RCNN中通过CPU运行selective search较慢的问题,转而提出RPN,借助GPU加速bbox对象框的提取。原创 2018-10-15 21:10:20 · 213 阅读 · 0 评论 -
【论文快读】GAN
标题:Generative Adversarial Nets作者:Ian J. Goodfellow等摘要:这里就不列直观解释了,直接看论文。1.“最小最大“博弈问题首先要知道作者的终极目的:已知pgp_gpgpdp_dpdpzp_zpz,也可以通过采样pdatap_{data}pdata获得一小部分数据xxx,训练pg来拟合pdatap_g来拟合p_{data}pg来拟合pd...原创 2018-10-14 21:27:03 · 191 阅读 · 0 评论 -
YOLOv1的loss函数
1.网络的outputYOLOv1的网络结构是包含20个卷基层的basemodel+4个新增卷积层。当选取7*7的grid和2个bounding box之后,输出为7*7*30的tensor。其中每个30d向量包括:5d长度的bbox1预测+5d长度的bbox2预测+该grid属于20个class的概率。bbox的预测五元组(x,y,w,h,confidence)(x,y,w,h,confide...原创 2018-10-07 21:50:21 · 5752 阅读 · 8 评论 -
【论文快读】The Multiplicative Weights Update Method: A Meta-Algorithm and Application
这算是早期阅读的paper,既然开了blog,就一并贴上来,感觉report写的还是有点又臭又长,不过总归是在一步一个脚印往前走啦。 链接:https://www.cs.princeton.edu/~arora/pubs/MWsurvey.pdf 作者:Sanjeev Arora,Elad Hazan,Satyen Kale 摘要: 有一种叫作Multiplicative Weight...原创 2018-05-09 22:49:42 · 2529 阅读 · 0 评论 -
【论文快读】R-CNN(2013)
链接:https://arxiv.org/abs/1311.2524 作者:Ross Girshick, Jeff Donahue, Trevor Darrell, Jitendra Malik 摘要: 传统的目标检测方法是通过集成系统把低级别的图像特征和高级别的文本相组合。CNN在经典的classification task上做的已经足够好了,但是在object detection上的...原创 2018-05-10 21:53:18 · 315 阅读 · 0 评论 -
【论文快读】ZF-Net(2013)
链接:http://www.arxiv.org/abs/1311.2901 作者:Matthew D. Zeiler, Rob Fergus 摘要:原创 2018-05-11 20:45:35 · 443 阅读 · 0 评论 -
【论文快读】Universal adversarial perturbations(2017)
连接: 作者:Seyed-Mohsen Moosavi-Dezfooli,Alhussein Fawzi,Omar Fawzi,Pascal Frossard 摘要: 对于任意给定的高效DNN分类器,作者都能为输入图片施加一个扰动,使得分类器以较大概率分类错误,从而实现对于dCNN的攻击。这个“扰动”有两个特点:1.universal,即扰动与输入图片无关,仅与模型本身相关。2.very...原创 2018-05-25 23:02:10 · 5782 阅读 · 0 评论 -
【论文快读】AlexNet(2012)
题目:ImageNet Classification with Deep Convolutional Neural Networks 作者:Alex Krizhevsky; Ilya Sutskever; Geoffrey E. Hinton 摘要: 60,000个参数,650,000个神经元,5个卷积池化层,3个全连接层,1000路的softmax,使用ReLU实现加速,使用drop...原创 2018-05-31 20:48:44 · 271 阅读 · 0 评论 -
【论文快读】LeNet(1998)
作者:Yann LeCun,Yoshua Bengio 链接:http://yann.lecun.com/exdb/publis/pdf/lecun-bengio-95a.pdf相当老的一篇文章,基本上属于CNN开山之作级别。作者首先比较了多层(全连接的)BP网络(全连接的)和CNN,前者作为古老的经典模型,固然有着许多诸如自提取特征、大数据可学等这样的优点,然而对于图片、语音、文本等数...原创 2018-06-22 23:04:17 · 958 阅读 · 0 评论 -
【论文快读】Batch Normalization
标题:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 作者:Sergey Ioffe,Christian Szegedy 摘要: 使得DNN训练起来很麻烦的原因是:当每一层的参数改变时,下一层的输入的分布也会随之改变(“internal covaria...原创 2018-06-18 11:29:50 · 185 阅读 · 0 评论 -
[论文笔记]Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images
作者:Anh Nguyen, Jason Yosinski, Jeff Clune 链接:https://arxiv.org/pdf/1412.1897.pdf 摘要: 本文的工作基于Christian Szegedy的Intriguing properties of neural networks一文,前文是利用箱约束下的L-BFGS算法来改造正确样本,而本文能够利用进化算法(梯度上升...原创 2018-06-27 15:51:38 · 1937 阅读 · 2 评论 -
[论文快读] FCN (2014)
标题:Fully Convolutional Networks for Semantic Segmentation作者:Jonathan Long, Evan Shelhamer, Trevor Darrell地址:https://arxiv.org/abs/1411.4038摘要:参考代码:https://github.com/pochih/FCN-pytorch/issuesFCN...原创 2018-10-03 09:21:15 · 895 阅读 · 0 评论 -
YOLO3的一些理解
关于maskhttps://blog.csdn.net/Julialove102123/article/details/79836975 :Every layer has to know about all of the anchor boxes but is only predicting some subset of them. This could probably be named s...原创 2019-06-07 23:10:01 · 1789 阅读 · 1 评论