论文笔记LRNNET: A LIGHT-WEIGHTED NETWORK

LRNNET是一种轻量级网络,通过factorized convolution和channel attention减少参数,加快运算速度。它采用奇异值分解和近似简化卷积操作,并结合Non-local Module增强特征学习。在Cityscapes上展示了高效实时语义分割的能力。
摘要由CSDN通过智能技术生成

论文标题为LRNNET: A LIGHT-WEIGHTED NETWORK WITH EFFICIENT REDUCED NON-LOCAL OPERATION FOR REAL-TIME SEMANTIC SEGMENTATION
链接:https://arxiv.org/abs/2006.02706v1

一、相关概念

LRNNET主要包含两种结构:factorized convolution和attention model

1 factorized convolution

factorized convolution是指对标准的卷积方式进行分解优化,以起到减少参数量、提高运行速率的目的。文章中使用了factorized convolution block(FCB)

2 channel attention

channel attention的方法被大量运用在语义分割的模型中,而position attention和non-local方法则运用较少。

二、methodology

1 singular value decomposition and approximation

这里使用奇异值分解类似于在机器学习特征工程中的数据降维处理。假设一个矩阵 A = ( a i j ) ∈ R m × n ( m ≥ n ) A=(a_{ij})\in R^{m\times n}(m\geq n) A=(aij)Rm×n(mn)同时有实数 σ 1 ≥ σ 2 ≥ ⋯ ≥ σ r > 0 \sigma _{1}\geq \sigma _{2}\geq\cdots\geq\sigma _{r}> 0 σ1σ2σr>0,两个正交矩阵 U ∈ R m × m U\in R _{m\times m} URm×m, V ∈ R n × n V\in R _{n\times n} VRn×n,满足 A = U D V T = ∑ i = 1 r σ i u i v i T A=UDV^{T}=\sum_{i=1}^{r}\sigma _{i}u _{i}v _{i}^{T} A=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值