![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Deeplab系列
文章平均质量分 87
只星若晨
这个作者很懒,什么都没留下…
展开
-
卷积神经网络与深度学习各个任务相关基础知识点杂谈
1. 正则化原创 2021-08-13 18:36:56 · 215 阅读 · 0 评论 -
激活函数与损失函数及其常见问题
一、激活函数 Sigmoid、tanh、ReLU、LeakyReLU、PReLU、RReLU0.激活函数的作用神经网络为什么需要激活函数:首先数据的分布绝大多数是非线性的,而一般神经网络的计算是线性的,引入激活函数,是在神经网络中引入非线性,强化网络的学习能力。所以激活函数的最大特点就是非线性。不同的激活函数,根据其特点,应用也不同。Sigmoid和tanh的特点是将输出限制在(0,1)和(-1,1)之间,说明Sigmoid和tanh适合做概率值的处理,例如LSTM中的各种门;而ReLU就不行,因为原创 2021-07-16 18:47:52 · 1600 阅读 · 0 评论 -
DeepLab之语义分割损失函数和评价指标
一、损失函数1.交叉熵损失 Cross Entorpy Loss逐像素交叉熵损失是图像分割中最常用的损失函数。该损失函数分别检查每个像素,将类预测(softmax 或 sigmoid)与目标向量(one hot)进行比较。1.1交叉熵。关于样本集的两个概率分布p和q,设p为真实的分布,例如[1, 0, 0]表示当前文本属于第一类;q为拟合的分布,例如该文本的分布为[0.7, 0.2, 0.1]。按照真实分布p来衡量识别一个样本所需的编码长度的期望,即平均编码长度(信息熵):H(p)=−∑i=1C原创 2021-07-16 14:42:57 · 2138 阅读 · 0 评论 -
DeepLab-v3+
一、待解决的问题网络连续下采样和重复池化,导致输入特征图分辨率较低空间不变性,丢失大量细节信息物体多尺度问题二、创新点引入编解码结构Encoder-Decoder,v3作为Encoder,添加Decoder作为输出处理过程,优化边缘引入Xception和Depthwise separable convolution,应用到ASPP和Deconder过程修改了Xception,使用strider=2的Depthwise separable convolution代替所有的Maxpoolin原创 2021-07-14 22:21:47 · 406 阅读 · 0 评论 -
DeepLab-v3
一、待解决的问题连续下采样和重复池化,导致最后特征图分辨率低图像中存在多尺度问题空间不变性导致细节信息丢失(v3未采用CRF)二、创新点增加多尺度分割物体的模块,设计了串行和并行的空洞卷积模块,采用不同的膨胀率atrous rate三、具体细节...原创 2021-07-14 16:05:00 · 630 阅读 · 0 评论 -
DeepLab-V2
一、待解决的问题连续下采样和重复池化,导致最后特征图分辨率低图像中存在多尺度的物体(v1没有针对性提出与解决,只是提到了网络特征的多尺度融合(跳层链接))空间不变性导致细节信息丢失二、创新点使用空洞卷积代替部分池化操作空洞卷积空间金字塔池化ASPP,融合多尺度信息得到更精确的分割结果组合DCNN和CRF,优化分割边界结果三、具体细节1.空洞卷积两种实现方式:上采样卷积核,参数之间插入(r-1)个0。尺寸为k的卷积核上采样之后大小为k+(k-1)*(r-1)下采样输入特征图原创 2021-07-14 15:29:06 · 211 阅读 · 0 评论 -
DeepLab-v1
一、待解决的问题重复池化和下采样导致分辨率大幅下降,位置信息丢失严重空间不变性导致细节信息丢失二、创新点DCNN结合CRF,提高分割图像的精度空洞卷积多尺度、多层次信息融合三、具体细节:1.空洞卷积空洞卷积,dilate rate,在同样卷积核大小的情况下,通过增加input stride来增加卷积核的感受野。空洞卷积参数的d,则(d-1)表示尺寸为k的卷积核每两个元素之间塞入的空格数),空洞卷积的卷积核大小为:k+(k−1)∗(d−1)k+(k-1)*(d-1)k+(k−1)原创 2021-07-14 11:04:20 · 181 阅读 · 0 评论