![](https://img-blog.csdnimg.cn/20201026204335259.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
论文学习
文章平均质量分 92
深度学习的论文比笔记,分享
浅度学习的ryan
热爱文字,喜欢分享,不断学习,透明小白
展开
-
CV笔记01:残差网络学习
残差网络resnet笔记思路大纲残差网络resnet一、背景和思考二、原理和结构1.怎么得到恒等映射?2.打破思维常规3.idea4.Identity Mapping 恒等映射5.网络结构和维度6.使用1×1卷积减少参数和计算量三、残差学习究竟在学习什么?四、Resnet到底在解决什么问题?五、ResNet总结1×1卷积一、背景和思考神经网络的深度(depth)和宽度(width)是表征网络复杂度的两个核心因素,不过深度相比宽度在增加网络的复杂性方面更加有效(网络越深,可表达的特征越丰富),这也是为什原创 2020-05-21 11:42:45 · 2039 阅读 · 0 评论 -
自监督学习--图像上色论文 Colorful Image Colorization
这是一篇比较老的论文了,是2016的ECCV,但是是属于自监督学习pretext task的一篇代表任务工作,而且论文的效果确实比较好,贴一个后面的web应用点击这里Demo这是这篇论文的展示页面论文github地址一、自监督介绍有监督 无监督 自监督 的区别见这篇一句话总结,传统的深度学习需要大量的人工标注数据,自监督学习通过pretext task(前置任务)学习数据内部分布,生成伪标签来训练模型,打破了标签数据的局限,更接近人工智能的本质。自监督学习一般有三大常见的前置任务,分原创 2020-10-15 19:41:59 · 4816 阅读 · 15 评论 -
CV笔记03:自监督GAN(ss-gan)
无需标注数据,利用辅助性旋转损失的自监督GANs,-- 对抗+自监督的无监督方式《通过辅助旋转损失进行的自监督GAN》CVPR 2019论文速看0.摘要目前自然图像合成主要是条件GAN,但是其缺点是需要标注数据。我们利用两种流行的无监督学习技术,对抗训练和自我监督,并朝着缩小有条件GAN和无条件GAN之间的差距迈出了一步。我们允许网络在代表学习的任务上进行协作,同时相对于经典GAN博弈具有对抗性。自监督的作用是鼓励鉴别器学习在训练过程中不会忘记的有意义的特征表示。做了实验,我们的东西很牛原创 2020-06-14 16:25:07 · 4097 阅读 · 0 评论 -
CV笔记02:单图训练的SinGAN
SinGAN文章目录SinGAN一、SinGAN是什么?二、背景和相关工作三、模型1. 文章的目的2. 方法3. 模型的结构1) 生成器2) 判别器3) 单尺度图像4) 训练过程4. 关于感受野5. 两种损失Adversarial lossReconstruction loss四、实验应用尺度影响如何评价GAN网络的好坏?AMT:衡量生成图片的质量和多样性FID(Fréchet Inception Distance )五、创新点六、结论补充知识点1. 图像金字塔2. 多尺度学习3. patch-GANs(原创 2020-05-24 17:30:35 · 1756 阅读 · 0 评论