CV
文章平均质量分 94
Shlily.
You only love,live once.
展开
-
NIN(Network in Network)和Inception v1(Google Netv1)并结合了一些自己的理解
NIN(Network in Network)和Inception v1(Google Netv1)NIN(Network in Network)和Inception v1(Google Netv1)NIN前言网络结构MLP Convolution Layers个人理解GAP(Global Average Pooling)GoogleNetv1应用NIN的1x1 ConvInception架构实现“自动构建”网络结构GoogleNetv1的网络架构与Deep Supervision参考因为前几天看论文用到原创 2021-04-12 02:12:11 · 343 阅读 · 0 评论 -
(已发布源码)图像修复——上下文编码器以及加入全局判别器的改进(Context Encoder and Global and Local Discriminator)
Context Encoder and Global and Local DiscriminatorContext Encoder ,Global and Local DiscriminatorContext Encoder(上下文编码器)在AE基础上modifychannel-wise fully-connected layer(创新点)Context Encoder组成判别器Unsupervised-learningLoss FunctionReconstruction Loss重构损失Adversar原创 2021-03-25 19:16:08 · 2389 阅读 · 9 评论 -
医学图像分割经典网络:U-Net论文笔记
U-Net————Convolutional Networks for Biomedical Image Segmentation前言:CNN体系语义分割存在的问题:FCN体系语义分割:池化层带来的另一个问题U-Net的策略:摘要:个人翻译:总结:重点一、网络架构—————针对FCN进行modify和extend一些解读:Q:为什么说Encoder-Decoder结构可以解决解决池化层导致位置信息丢失的问题?重点二、对输入进行镜像从而更好的处理边缘细节重点三、加权损失函数的引入Introduction描述引原创 2021-03-06 15:33:15 · 1956 阅读 · 3 评论 -
FCN论文笔记(看目录就知道有多详细:)
FCN论文笔记(看目录就知道有多详细:)一、简介二、对CNN的fc层进行卷积化三、transpose convolution (deconv)(Up-sampling)四、跳跃连接skip layer(也叫特征融合,补偿前后的特征图)五、与传统CNN比较结果总结:六、模型细节(训练技巧)(对原文做的一个总结)七、损失函数NLLLoss()八、数据集九、模型的缺点:十、参考:(标题有够中二)FCN(Fully Convolutional Network)全卷积网络,是应用深度学习进行语义分割的开山大作!!原创 2021-03-02 21:49:47 · 1609 阅读 · 0 评论 -
AlexNet和VGGNet重点摘要总结(包含Fancy PCA详解和SGD)
AlexNet和VGGNet重点摘要总结(包含Fancy PCA详解)参考与引用:AlexNet's Discoveries and Summaries1.ReLU Nonlinearity(非线性非饱和函数训练速度极快)2.双GPU并行运行(可以提高运行速度和网络运行规模)3.LRN(Local Response Normalization)局部响应归一化(学到了可用验证集确定超参)4.减少overfitting①数据增强(data augmentation)(pytorch里的transforms)②d原创 2021-02-25 21:55:06 · 921 阅读 · 0 评论 -
卷积神经网络三类主体层的理解(重点在全连接层(已加入一些与传统图像处理的联系))
卷积神经网络三类主体层的理解(重点在全连接层)三个部分每个部分的作用1.卷积层2.池化层(下采样池化层)3.全连接层(fully connected)(用于分类任务,在分割和检测上不适用)参考:三个部分①卷积层(conv)——————>用于提取特征②池化层(pooling)——————>用于特征选择(也叫下采样)③全连接层(fc(fully connected)层)———————>用于整合全局信息进行分类每个部分的作用1.卷积层首先谈谈卷积层,事实上,卷积层和全连接层是可以相原创 2021-02-18 23:29:01 · 4793 阅读 · 2 评论