卷积神经网络
文章平均质量分 92
不会算命的赵半仙
这个作者很懒,什么都没留下…
展开
-
论文阅读-主干网络(2022)-ConvNext:下一代卷积网络
论文重新对传统卷积网络的设计空间以及其他局限进行测试,逐步将ViTs中的一些Tricks应用到标注的ResNet中,发现了一些能够提升网络性能的关键因素,最终输出的网络命名为ConvNext原创 2022-04-20 09:39:39 · 2423 阅读 · 0 评论 -
ML/DL-复习笔记【十】- 分组卷积和深度可分离卷积的区别
> 本节为ML/DL-复习笔记【十】- 分组卷积和深度可分离卷积的区别,主要内容包括:分组卷积与深度可分离卷积的参数量分析。原创 2021-07-19 21:56:33 · 826 阅读 · 0 评论 -
(CVPR2020 Oral)用于实时实例分割的Deep Snake方法
CVPR 2020 Oral Paper,用于实时实例分割的DeepSnake方法,论文采用一组连续有序的点组成物体轮廓,使得参数量大大降低更接近与目标检测中bounding box的参数量,也适用于文字与细胞的分割。该方法的基本思路是用深度学习方法改进传统snake方法【"Kass, Michael, Andrew Witkin, and Demetri Terzopoulos. Snakes: Active contour models.In IJCV, 1988."】的优化过程,最终在多个数据集上原创 2021-07-19 21:55:34 · 480 阅读 · 1 评论 -
ML/DL-复习笔记【九】- 神经网络中各层的计算量与参数量
本节为ML/DL-复习笔记【九】- 神经网络中各层的计算量与参数量,主要内容包括:标准卷积、空洞卷积、转置卷积、深度可分离卷积以及全连接层的计算量、参数量与输出特征图尺寸计算。原创 2021-05-11 07:05:14 · 1025 阅读 · 2 评论 -
ML/DL-复习笔记【八】- 信息熵与相对熵(KL散度)
本节为ML/DL-复习笔记【八】信息熵与相对熵(KL散度)。原创 2021-05-08 20:02:55 · 333 阅读 · 3 评论 -
C3模块-空洞可分离卷积存在的问题及轻量化语义分割模型架构技巧
C3即"Concentrated-Comprehensive Convolution",文章指出轻量化语义分割模型多采用空洞可分离卷积,但是文章指出这种方式存在的信息损失,。论文地址工程地址 构建轻量化语义分割模型的一种方式是使用深度空洞可分离卷积,但是空洞卷积和深度可分离卷积两种方式的简单结合,形成了一个过于简单的操作,造成了特征图的信息损失导致模型表现衰退(深度可分离卷积对标准卷积的不恰当近似;空洞卷积造成的相邻像素信息损失即网格效应),为此提出了C3模块,分为两个阶段,第一个阶段使用两个深.原创 2021-01-15 16:32:16 · 3380 阅读 · 2 评论 -
论文阅读-可变形卷积v2: More Deformable, Better Results
论文提出可变形卷积神经网络v2(DCNv2),规避了采样区域增加从而引入无关区域的问题,通过更多的可变形卷积层的堆叠,可调节的可变形卷积核RoI池化模块与R-CNN特征融合训练进一步提升了训练精度。原创 2019-05-13 18:17:10 · 4106 阅读 · 0 评论 -
CVPR2018论文阅读-Faster MPN-COV:迭代计算矩阵平方根以快速训练全局协方差池化
Towards Faster Training of Global Covariance Pooling Networks by Iterative Matrix Square Root Normalization通过迭代计算矩阵平方根加速训练全局协方差池化替代全局平均池化更好地利用协方差矩阵丰富的结构信息,提出的方法在几个细粒度的数据集上都SOTA效果。原创 2019-04-18 09:06:44 · 5567 阅读 · 1 评论 -
论文阅读-可变形卷积网络:Deformable Convolutional Networks
可变形卷积网络:Deformable Convolutional Networks卷积神经网络对位置变化的建模存在天然缺陷,这是由于网络固定的位置结构。该论文提出两个新的模块来增强CNNs的这种建模能力,称为deformable convolution和deformable RoI pooling,实验表明这两个模块对于目标检测任务和语义分割任务的精度都有一定的提原创 2019-05-13 09:20:50 · 5738 阅读 · 1 评论 -
主干网络系列(2) -ResNet V2:深度残差网络中的恒等映射
该论文分析了深度残差模块的传播方式并发现当跳跃连接和附加激活项使用恒等连接时,前向和后向信号都可以直接从一个模块传递到另一个模块。论文进行了一系列消融实验都证实了这些恒等连接的重要性,由此论文提出了一个新的残差单元,使得模型训练更加简单,泛化能力更强。原创 2019-02-25 20:25:38 · 10820 阅读 · 1 评论 -
主干网络系列(6) - Xception: 使用深度可分离卷积的深度学习
该论文对Inception模块做了新的解释,通过使用深度可分离卷积来代替Inception模块产生了一个新的网络架构,即Xception(Extreme Inception)。原创 2019-02-24 11:58:19 · 4949 阅读 · 0 评论 -
主干网络系列(1) -ResNet: Deep Residual Learning for Image Recognition
论文提出了深度残差模块并在此基础上形成了深度残差学习框架ResNet,解决极深神经网络训练代价大幅上升,但效果却没有提升,甚至有所下降的问题原创 2019-02-22 14:01:11 · 4432 阅读 · 0 评论 -
论文阅读-为什么深度卷积神经网络对小目标的变换泛化效果很差?
该论文发现,现代深度卷积神经网络在图像中的小目标发生平移后对其类别的判断会产生非常大的误差,这与人们设计深度卷积网络的初衷并不一致。论文还观察到,网络层数越深,这种错误越容易发生。论文认为这种错误的发生是由于现代卷积神经网络的架构设计没有遵从经典的采样定理以致泛化能力不能得到保证。并且通用的图像数据集中的统计误差使得CNN难以学习到其中的变换不变性(invariant to these transformations)。原创 2018-12-17 18:48:06 · 1767 阅读 · 0 评论