![](https://img-blog.csdnimg.cn/20210305154652297.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
图像分割、分类
文章平均质量分 95
文章作者:gkm0120
声明:作者翻译论文仅为学习,如有侵权请联系作者删除博文,谢谢!
gkm0120
路漫漫其修远兮,吾将上下而求索!
展开
-
【图像分割综述】Image Segmentation Using Deep Learning: A Survey
涵盖了图像分割方面的最新文献,并讨论了直到2019年提出的一百多种基于深度学习的分割方法,训练方法及其主要贡献。 提供了综述方法的性能的比较摘要,并讨论了基于深度学习的图像分割模型的一些挑战和潜在的未来方向。翻译 2021-03-09 19:44:23 · 6853 阅读 · 0 评论 -
【图像分类—Xception】Xception: Deep Learning with Depthwise Separable Convolutions
将Inception V3结构中的Inception改用Depthwise Separable Convolution,在与Inception V3参数数量相差无几的情况下,在ImageNet上性能有略微上升,JFT上有明显提高。翻译 2021-03-07 20:48:03 · 1412 阅读 · 0 评论 -
【语义分割—Deeplab V3+】Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation
deeplabv3+继续在模型的架构上作文章, 为了引入语义分割常用的encoder-decoder融合多尺度信息。在 encoder-decoder架构中,引入可任意控制编码器提取特征的分辨率, 通过空洞卷积平衡精度和耗时。在语义分割任务中采用Xception模型, 在ASPP和解码模块使用depthwise separable convolution, 提高编码器-解码器网络的运行速率和稳定性, 在 PASCAL VOC 2012 dataset取得89.0% mIOU翻译 2021-03-05 15:02:21 · 821 阅读 · 0 评论 -
【图像分割—U-Net】U-Net: Convolutional Networks for Biomedical Image Segmentation
Unet架构能够捕获上下文的收缩路径和精确定位的对称扩展路径。翻译 2021-03-03 13:54:49 · 1650 阅读 · 0 评论 -
【语义分割—Deeplab V3】Rethinking Atrous Convolution for Semantic Image Segmentation
Deeplab V1-V2都是使用带孔卷积提取密集特征来进行语义分割。但是为了解决分割对象的多尺度问题,deeplabv3设计采用多比例的带孔卷积级联或并行来捕获多尺度背景。翻译 2021-03-01 20:32:32 · 1473 阅读 · 0 评论 -
【语义分割—DeepLab V2】DeepLab: Semantic Image Segmentation with Deep Convolutional Nets...
deeplabv2是相对于deeplabv1基础上的优化。解决特征分辨率的降低、物体存在多尺度,DCNN的平移不变性3个问题。翻译 2021-02-27 16:05:12 · 1633 阅读 · 0 评论 -
【语义分割—DeepLab V1】Semantic Image Segmentation with Deep Convolutional Nets and Fully Connected CRFs
DeepLab v1:卷积神经网络+概率图模型做端到端训练。DCNN+CRF 预测结果准确、效率高翻译 2021-02-25 09:48:53 · 856 阅读 · 0 评论 -
【语义分割—SegNet】SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation
SegNet的编码器部分使用了去除全连接层的VGG-16网络,解码器部分采用了对等于编码器部分的结构。SegNet的解码器部分使用了一系列上采样和卷积层,上采样层对应于解码器的对等最大池化层,通过保留的最大池化层的最大值索引来恢复特征图分辨率,并利用可学习的后续卷积层来产生稠密特征。翻译 2021-02-24 10:12:31 · 1847 阅读 · 0 评论 -
【图像分类—ResNet V2】Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
论文基于Inception结构和残差连接实现了3个网络:Inception-v4、Inception-ResNet-v1、Inception-ResNet-v2;通过实验证明了残差连接能够很好的改善训练速度,同时证明了非残差的Inception网络同样能够实现最好的分类精度。翻译 2021-01-20 22:32:17 · 951 阅读 · 0 评论 -
【图像分类—ResNet V1】Deep Residual Learning for Image Recognition
论文解决的主要问题是深层的神经网络很难训练;提出了一种残差学习框架来减轻网络训练。翻译 2021-01-18 22:32:38 · 524 阅读 · 0 评论 -
【图像分类—GoogLeNet Inception V3】Rethinking the Inception Architecture for Computer Vision
分析了Inception优化的一些历史情况;提出了设计Inception的四个原则;提出分解卷积核的方式;辅助分类器的作用;提出缩小feature的结构。翻译 2021-01-16 21:43:36 · 193 阅读 · 0 评论 -
【图像分类—GoogLeNet Inception V2】Batch Normalization: Accelerating Deep Network Training by ...
BN的提出是为了克服深度神经网络难以训练的弊病,减轻了对参数初始化的依赖;训练更快,可以使用更高的学习率;BN一定程度上增加了泛化能力,dropout等技术可以去掉。翻译 2021-01-13 13:57:05 · 201 阅读 · 0 评论 -
【论文汇总】Semantic-Segmentation(语义分割)
关于语义分割的所有论文和资源的列表。转载 2020-12-18 15:34:12 · 8971 阅读 · 0 评论 -
【图像分类—NIN】Network In Network
文章提出在每个局部感受野中进行更加复杂的运算,提出了对卷积层的改进算法:MLP卷积层。传统的卷积神经网络一般来说是由:线性卷积层、池化层、全连接层堆叠起来的网络,卷积层通过线性滤波器进行线性卷积运算,然后在接个非线性激活函数,最终生成特征图。翻译 2020-12-18 10:11:52 · 623 阅读 · 0 评论 -
【图像分类—GoogLeNet Inception V1】Going deeper with convolutions
Google Inception Net 首次出现在 ILSVRC 2014的比赛中(和VGGNet 同年),就以较大优势取得了第一名。它最大的特点就是控制了计算量和参数量的同时,获得了非常好的分类性能——top-5 错误率 6.67%。Inception V1 有22 层深,比 AlexNet的8层或者 VGGNet的19层还要更深。但其大小却比AlexNet和VGG小很多,计算量只有 15亿次浮点运算,同时只有500万的参数量,仅为 AlexNet 参数量(6000万)的 1/12。翻译 2020-12-17 20:01:47 · 1032 阅读 · 0 评论 -
【语义分割—FCN】Fully Convolutional Networks for Semantic Segmentation
与经典的CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类(全连接层+softmax输出)不同,FCN可以接受任意尺寸的输入图像,采用反卷积层对最后一个卷积层的feature map进行上采样, 使它恢复到输入图像相同的尺寸,从而可以对每个像素都产生了一个预测, 同时保留了原始输入图像中的空间信息, 最后在上采样的特征图上进行逐像素分类。翻译 2020-12-11 20:31:40 · 1288 阅读 · 0 评论 -
【图像分类—VGG】 Very deep convolutional networks for large-scale image recognition
VGG对于Alexnet来说,改进并不是很大,主要改进就在于使用了小卷积核,网络是分段卷积网络,通过max pooling过度,同时网络更深更宽。分别在定位和分类问题中获得了第一和第二名。我们还表明,我们的方法很好地推广到了其他数据集上,在那里他们实现了最好的结果。翻译 2020-12-08 14:47:58 · 1185 阅读 · 0 评论 -
【图像分类—AlexNet】ImageNet Classification with Deep Convolutional Neural Networks
在ImageNet LSVRC-2010 2012表现突出,top-1误差率37.5%,以及top-5误差率17.0%;网络有6000万个参数和650,000个神经元;网络结构五个卷积层,以及某些卷积层后的池化层,以及最后的三个全连接层;引入正则化方法dropout;引入ReLU修正线性单元。翻译 2020-12-07 11:14:37 · 1381 阅读 · 0 评论