![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文
文章平均质量分 87
Chris_zhangrx
读书郎
展开
-
[论文阅读] 《Compiling ONNX Neural Network Models Using MLIR》
文章目录《Compiling ONNX Neural Network Models Using MLIR》要解决的问题名字由来解决方法《Compiling ONNX Neural Network Models Using MLIR》本文主要是对 ONNX-MLIR 这个框架的论文记录,主要是速记对论文中一些个人认为值得记录和分享的点,所以篇幅不长。要解决的问题当前模型加速技术有一些深度学习框架是通过使用一些高性能依赖库来实现加速的,在前向推理时让算子实现直接调用高性能库中已经实现的函数,这样的加速方原创 2021-12-23 18:28:41 · 2465 阅读 · 0 评论 -
目标检测: CornerNet
本文是 ECCV2018 的工作,创新的在不使用 anchor box 的方法进行目标检测,还是有很多值得学习的地方,尤其是对像笔者这样对目标检测领域目前还不是很熟悉的读者,在 Related works 里面,作者思路很清晰的对当前已经存在的工作进行了一个总结和梳理,对于新手来说是一个很好的学习路线,其次就是从姿态估计等领域的网络及算法中获得灵感用在了目标检测领域,这也给了我们一些启发,要多涉猎...原创 2019-02-25 13:34:01 · 1158 阅读 · 2 评论 -
姿态估计: Hourglass 网络
本文是 ECCV2016 的工作,主要是介绍了一个在当时是新的姿态估计的网络结构。这里主要是对整个网络的结构和思想进行一个梳理,可以进一步明白后序一些基于此网络结构的工作(例如ECCV2018 CornerNet),不涉及到 姿态估计领域 的一些见解和讨论,所以本文主要就是分为两节,引出课题和介绍 hourglass 网络。原文链接: https://arxiv.org/abs/1603.069...原创 2019-02-25 15:57:51 · 4284 阅读 · 0 评论 -
目标检测: YOLOv1
《You Only Look Once: Unified,Real-Time object Detection》论文链接: https://pjreddie.com/publications/本文为最早提出的一批 one-stage 的目标检测方法,此方法速度很快,可以达到 45帧/秒 (在 Titan X 上运行)的速度,若精简网络结构,可以达到 155帧/秒(在 Titan X 上运行),...原创 2019-02-26 12:07:24 · 473 阅读 · 2 评论 -
目标检测: YOLOv3
《YOLOv3: An Incremental Improvement》原文链接: https://arxiv.org/abs/1804.02767本文可以说写的很随意了 ,下面简单梳理一下 YOLO v3 的内容1. Bounding box 的预测这里仍然使用直接预测 bounding box 的方法,预测 bounding box不同点是,在 v2 中选择的 anchor box...原创 2019-03-02 12:51:38 · 562 阅读 · 0 评论 -
实例分割: Mask R-CNN
《Mask R-CNN》原文链接: https://arxiv.org/abs/1703.06870本文主要的点是在 Faster R-CNN 已有预测 bounding box 分支的基础上增加了一个预测物体掩码(mask) 的并行分支,提出了 RoIAlign 操作,使其处理不同的任务,例如目标检测,实例分割,人体关键点检测等。1. Introduction目前的目标检测领域和语义分...原创 2019-03-05 20:52:28 · 1315 阅读 · 0 评论 -
人脸检测: FaceBoxes
《FaceBoxes: A CPU Real-time Face Detector with High A ccuracy》原文链接:https://arxiv.org/abs/1708.05234Caffe 框架实现: https://github.com/lippman1125/faceboxes_lqyPytorch 框架实现:https://github.com/zisianw/Fa...原创 2019-03-08 18:19:35 · 934 阅读 · 0 评论 -
目标检测: R-CNN
文章目录写在前面R-CNN 的 pipelineR-CNN 的训练过程微调 CNN训练 SVM训练 bounding-box 回归模型其他论文题目:《Rich feature hierarchies for accurate object detection and semantic segmentation》论文链接:https://arxiv.org/abs/1311.2524v3代码实...原创 2019-03-28 20:28:00 · 329 阅读 · 0 评论 -
目标检测: SPPNet
原文链接:https://arxiv.org/abs/1406.4729按照发展的时间线走,在正式进行 fast R-CNN 等工作的介绍之前,还是简单概括一下 SPPNet 吧,毕竟也是 KaiMing 大神的作品。文章要点解决带有全连接层的 CNN 只能固定输出图片尺寸的问题。而解决的方式就是使用空间金字塔池化(Spatial Pyramid Pooling,SPP)的操作,在需要固定输...原创 2019-03-28 22:20:38 · 826 阅读 · 0 评论 -
浅谈图像分割算法
目前比较有名的图像分割算法当属,Unet,SegNet,FCN,DeepLab 系列,RefineNet,PSPNet,Large kernel Matter 等。本文旨在对这写分割算法进行一个简单的总结比较。未完待续…...原创 2019-07-31 22:16:21 · 1536 阅读 · 1 评论 -
目标检测: YOLOv2
《YOLO9000: Better, Faster,Stronger》论文链接:https://arxiv.org/abs/1612.08242项目地址:https://pjreddie.com/darknet/yolo/本文为 YOLO v2的提出,作者做了大量的实验,包括把当时比较流行的一些网络构建方法(BN层,average pooling,大量使用小卷积核等)都进行了尝试与结果对比,...原创 2019-02-27 15:16:41 · 348 阅读 · 0 评论 -
Windows 下 Texlive 2018 + sublime3 配置 LaTex 环境 (详细版)
文章目录1. 下载 Texlive 20182.下载 Sumatra PDF3. 下载 Sublime33.1 注册3.2 Package Control 安装 LaTexTools3.3 配置 LaTexTools3.4 自动补全功能4. 最后一步5. 牛刀小试1. 下载 Texlive 2018这里不多说,都是推荐直接下载镜像版离线安装,本人也直接下载了官网的 .exe 进行安装,中间报错...原创 2019-02-02 13:38:35 · 2200 阅读 · 2 评论 -
《Very Deep Convolutional Networks for Large-Scale Image Recognition》论文阅读
这是一篇2015.04的论文。Abstract 本文探索了神经网络的深度在大尺寸图像爱那个识别精度上的影响。我们主要的贡献是:完整地评估了一个用 3x3 卷积滤波器增加深度的网络,结果表明,当层数达到 16-19 层的时候,精度会有一个很好的提升。这个发现也使我们团队在 ImageNet Challenge 2014 获得了定位第一名,分类第二名的主要原因。我们也证明了我们的模型在其他数据集上可以原创 2017-12-13 23:03:05 · 498 阅读 · 0 评论 -
《Going deeper with Convolutions》论文阅读
2015 CVPR Abstract 本文提出一种深度学习网络结构——Inception。在 ILSVRC-2014 中分类和检测都取得了很好的效果。这个结构的最大特点就是改善了网络内部计算资源的利用率。在保证计算量没有很大帮增长的前提下,我们增加了深度和宽度。为了能保证最后的实验结果,网络采用了 Hebbian principle 和多尺寸处理。我们提交的 GoogleNet 是一个 22 层原创 2017-12-14 16:15:18 · 765 阅读 · 0 评论 -
转-CNN模型的压缩与加速算法综述
本文转自微信公众号:微信AI 原文地址:链接前言 自从AlexNet一举夺得ILSVRC 2012 ImageNet图像分类竞赛的冠军后,卷积神经网络(CNN)的热潮便席卷了整个计算机视觉领域。CNN模型火速替代了传统人工设计(hand-crafted)特征和分类器,不仅提供了一种端到端的处理方法,还大幅度地刷新了各个图像竞赛任务的精度,更甚者超越了人眼的精度(LFW人脸识别任务)。CNN模型在转载 2017-12-15 21:42:33 · 1780 阅读 · 0 评论 -
神经网络的结构与加速
本文是在准备一个文献阅读报告时,对相关论文内容的一个梳理,除了在网络结构设计上面做文章,神经网络加速的算法也有很多,例如剪枝,知识蒸馏等,奈何数学基础很烂,上述方法一时还不能很好领会,所以本文以 ImageNet 比赛为时间主线,来探寻近年来网络结构的变化(所以重点在结构变化,会选择性忽略一些训练技巧及特点),若有描述不当或者理解有误的地方,欢迎留言交流!!1.简介 目前,深原创 2017-12-27 22:02:41 · 691 阅读 · 0 评论 -
ShuffleNet V2 论文阅读笔记
ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design 阅读笔记论文链接:https://arxiv.org/abs/1807.11164我自己基于 caffe 框架的复现:https://github.com/anlongstory/ShuffleNet_V2-caffe本文主要是对目前一些...原创 2018-08-01 21:33:58 · 7163 阅读 · 9 评论 -
《Learning without Forgetting》 论文阅读笔记
文章目录1. 引言2. 相关工作2.1 方法对比2.2 局部相关方法2.3 同时期的方法3. 不遗忘学习原文链接: Learning without Forgetting1. 引言在很多实际的视觉应用中,都需要在保留旧知识的基础上学习新的知识。例如,为了建筑工地安全,已经开发了一个服装安全检测系统,可以检测工作人员是否穿了反光背心或者安全帽,但是项目负责人想系统也可以检测出工作人员是否穿了合...原创 2018-12-05 00:11:28 · 6814 阅读 · 0 评论 -
《iCaRL: Incremental classifier and Representation Learning》 阅读笔记
论文原文链接:https://arxiv.org/abs/1611.077251. 引言自然界的视觉系统天生就是可增量的:新的视觉信息在保留已学习到的知识的情况下不断被学习到。例如,一个小孩子可以去动物园学习到很多新的动物种类,而不会因此忘记他家里的宠物种类。相反,很多人工目标识别系统都只能用想要识别的所有分类一次性训练得到。最起码,一个视觉分类系统应该要具有增量学习新类的能力,也称这种能力...原创 2018-12-05 15:49:30 · 4086 阅读 · 0 评论 -
《Revisiting Distillation and Incremental Classifier Learning》 论文笔记
原文链接:https://arxiv.org/abs/1807.02802本文主要就是对于 iCaRL这篇论文的再研究,设置了一些研究型实验推翻了之前 iCaRL 论文中的一些说法,最终得出结论,iCaRL 之所以行之有效的主要原因是使用了知识蒸馏(Knowledge diatillation)。并对于知识蒸馏存在的分类器偏差(bias in classifiers)问题,提出了动态阈值移动(d...原创 2018-12-05 19:55:27 · 684 阅读 · 0 评论 -
《Incremental Classifier Learning with Generative Adversarial Networks》 阅读笔记
原文链接: Incremental Classifier Learning with Generative Adversarial Networks本文主要是解决增量学习中灾难性遗忘的问题,文中指出灾难性遗忘主要是因为过去的数据在训练时得不到。通常的方法是先保留一部分过去类别的样本,然后配合蒸馏正则化来平衡新旧类别之间的关系。但是这些方法主要有四个问题:1)Loss 函数的设计对分类器来说都不...原创 2018-12-06 13:46:05 · 1243 阅读 · 3 评论 -
《ImageNet Classification with Deep Convolutional Neural Networks》论文阅读
Abstract 在 LSVRC-2010 数据集上我们训练了分成 120 万张分成 1000 类的高分辨率图片,在测试集上分别获得了top-1,top-5 错误率分别是37.5%和17.0%。本神经网络包含6千万个参数,65万个神经元,由 5 个卷积层加 3 个全连接层组成。为了减少过拟合,使用了Dropout策略。同时我们使用这个模型参加了ILSVRC-2012 比赛,相较于第二名 TOP-5原创 2017-12-13 18:41:37 · 1978 阅读 · 0 评论