![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络
纵心似水
心之所向,素履以往;学如逆旅,一苇以航。
展开
-
(转)优化时该用SGD,还是用Adam?——绝对干货满满!
优化时该用SGD,还是用Adam?——绝对干货满满!转载 2019-12-06 11:16:32 · 49493 阅读 · 9 评论 -
详解Triplet loss三元组损失
详解Triplet loss三元组损失转载 2019-11-05 10:26:34 · 3027 阅读 · 0 评论 -
反卷积棋盘格效应示例
反卷积棋盘格效应示例该网站不仅提供了详细的分析,并且提供了形象生动的互动示例,包括在图像上查看棋盘格效应的细节、用户调整超参数查看一维、二维棋盘格效应的示意。Deconvolution and Checkerboard Artifacts...转载 2019-10-24 15:02:56 · 438 阅读 · 0 评论 -
BEGAN(Boundary Equilibrium GAN)论文翻译
BEGAN(Boundary Equilibrium GAN)论文翻译 BEGAN:边界平衡生成式对抗网络 摘要我们提出了一种新的促进平衡的方法,以及配套的损失函数,这个损失的设计由Wasserstein距离衍生而来,Wasserstein距离是用于训练基于自编码器的生成对抗网络的。该方法在训练期间平衡生成器和判别器。此外,它提供了一种新的近似收敛策略,实...转载 2019-10-22 17:02:37 · 1989 阅读 · 0 评论 -
神经网络中的Exponential Moving Average——指数滑动平均
Exponential Moving Average——指数滑动平均找到一篇讲解神经网络中滑动平均的很好的文章,全程截图如下:转载 2019-10-18 16:06:08 · 1085 阅读 · 0 评论 -
GAN生成图像质量的两个评价指标——IS与FID
很久没有写原创博客了,最近在研究图像生成,看到关于生成器的评价指标有这么几个——IS(Inception Score)、FID(Fréchet Inception Distance)以及一些其它距离指标,下面主要参考三个博客,写写我的理解与感受吧。原创 2019-10-15 17:08:58 · 34886 阅读 · 10 评论 -
思考深度学习的泛化能力
深度神经网络往往带有大量的参数,但依然表现出很强的泛化能力(指训练好的模型在未见过的数据上的表现)。深度神经网络为何会拥有如此强的泛化能力?2016年、2017年的两篇论文引起了广泛思考。神经网络通过记忆学习《Understanding deep learning requires rethinking generalization》 一文通过实验得出初步结论: 神经网络极易记忆训练数...转载 2019-10-15 11:38:01 · 1140 阅读 · 0 评论 -
ResNet 18 网络结构
import torchfrom torchvision import modelsresnet = models.resnet18(pretrained=True)print(resnet)"""ResNet( (conv1): Conv2d(3, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3), bias=False...原创 2019-09-25 17:26:05 · 17244 阅读 · 2 评论 -
(转)看到的一篇关于GANs的很好的理解的博客
网上已经贴满了关于GAN的博客,最近看到这样一篇关于GAN讲解的很详细透彻全面的博客,我便转载下来,以便以后查阅。转载 2019-09-09 19:39:45 · 580 阅读 · 0 评论 -
(转)ICLR 2019 《GAN DISSECTION: VISUALIZING AND UNDERSTANDING GENERATIVE ADVERSARIAL NETWORKS》
ICLR 2019 《GAN DISSECTION: VISUALIZING AND UNDERSTANDING GENERATIVE ADVERSARIAL NETWORKS》 ICLR 2019 《GAN DISSECTION: VISUALIZING AND UNDERSTANDING GENERATIVE ADVERSARIAL NETWORKS》githubDemoproject...转载 2019-09-09 17:05:50 · 874 阅读 · 0 评论 -
(转)ICLR2018年网络结构生成论文——论文分层表示高效的架构搜索(HIERARCHICAL REPRESENTATIONS FOR EFFICIENT ARCHITECTURE SEARCH)
ICLR2018年网络结构生成论文——论文分层表示高效的架构搜索(HIERARCHICAL REPRESENTATIONS FOR EFFICIENT ARCHITECTURE SEARCH) ...转载 2019-09-05 14:22:36 · 199 阅读 · 0 评论 -
(转)CVPR2019年增量学习论文解读—— large scale incremental learning
CVPR2019年增量学习论文解读—— large scale incremental learning版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/shinian1987/article/details/94288012最近,增量学习,持续学习,终生学习的概念越来越火,也引起...转载 2019-09-05 09:02:25 · 1474 阅读 · 0 评论 -
实验并解读github上三个DeepDream的Pytorch代码
实验并解读github上三个DeepDream的Pytorch代码今天在学习DeepDream的有关内容,关于论文的翻译已经在启发主义——深入神经网络(Inceptionism: Going Deeper into Neural Networks)一文中进行,而关于代码的实践则在这篇博文中展开。google官方个给出的开源代码是基于Caffe框架的ipynb文件,但在我的环境中运行Caffe必...原创 2019-09-03 20:02:59 · 1278 阅读 · 1 评论 -
启发主义——深入神经网络(Inceptionism: Going Deeper into Neural Networks)
传统的深度学习方法常用于根据数据标签学习分类、识别物体,或是学习数据或隐层的分布从而生成新的数据。而2015年提出的启发神经网络合成它想合成的图像,则开启了一种新的研究角度。之后开源的Deepdream则更是掀起了新的浪潮。下面我们翻译一下这篇论文。原创 2019-09-03 14:09:03 · 1526 阅读 · 1 评论 -
(转)深度学习中的一些卷积详解—— 2D / 3D / 1x1 /转置/扩张(Atrous)/空间可分/深度可分/平展/分组/混洗分组卷积
深度学习中的一些卷积详解——2D / 3D / 1x1 /转置/扩张(Atrous)/空间可分/深度可分/平展/分组/混洗分组卷积最近在搜索两阶段卷积映射时搜索到了这么一篇文章,链接如下:卷积有多少种?一文读懂深度学习中的各种卷积文章目录深度学习中的一些卷积详解——2D / 3D / 1x1 /转置/扩张(Atrous)/空间可分/深度可分/平展/分组/混洗分组卷积一、卷积与互相关二、3D ...转载 2019-09-02 18:41:50 · 1318 阅读 · 1 评论 -
(转)深度图像合成中的神经群体控制
原文链接:深度学习成功控制灵长类动物视觉,医学应用前景广阔 研究者进行了一系列生理实验,将模型神经元和记录的动物脑神经位点进行匹配,以测试模型控制动物神经元的能力。 Daniele Simonelli 导语 你有没有想过如果有一天,人类可以设计一种方法,不借助手术,通过视觉的直接控制生物的大脑?这听起来像科幻小说里的桥段,就在本月,来自麻省理工学...转载 2019-08-27 10:28:16 · 682 阅读 · 0 评论