![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络
Rauchy
不拘一格,自成一派
展开
-
利用神经网络求解微分方程
原理实现效果原创 2019-10-22 15:23:40 · 19102 阅读 · 18 评论 -
Fully convolutional networks
前言 最近在看计算机图像和视觉方面的论文,FCN(Fully convolutional networks)是一篇非常成功的论文,图像语义分割这一块就靠它入门了。为了写博客更加方便,打算将论文讲解和实现分开成两篇博客,这样写起来也轻松一些。原理 在讨论语义分割以前,我们先来讨论图像分类与物体检测。图像分类卷积神经网络的最基础的应用应该就是图像分类,图像分类的输入是二维图像数据,输...原创 2019-09-03 00:00:10 · 3171 阅读 · 0 评论 -
卷积操作中的same padding与valid padding
最近在研究卷积神经网络,很多卷积操作里头都会有padding这个选项,以keras中的Conv2D为例,padding操作有valid,same,casual等,我只讨论same和valid这两种模式,casual以后遇到再说。假设模型的输入维度为n,kernel size为k,步长为s,输出维度为m。same padding 当strides=1时,利用same padding操作,...原创 2019-07-12 15:55:56 · 4964 阅读 · 1 评论 -
生成对抗网络(三)DCGAN
一、定义 最近在研究DCGAN,全称为DEEP CONVOLUTIONALGENERATIVE ADVERSARIAL NETWORKS,是在GAN的基础上加入卷积层,使得模型在图像的生成上能够稳定而不是简单地对样本输入产生记忆。GAN采用的是全连接神经网络,训练时不稳定,容易崩溃,而这篇论文针对原始GAN进行了改进,并针对生成器的结构进行了设计,使得生成的图片更加稳定。 作者的工作体现...原创 2019-07-12 11:30:12 · 718 阅读 · 0 评论 -
mnist数据集可视化
mnist可视化 最近在研究GAN,数据集采用的是mnist数据集,为了将生成的图片与原数据进行对比,需要将mnist数据集可视化,具体代码如下,每张图片有5*5个手写数字图片。from keras.datasets import mnistimport matplotlib.pyplot as plt(X_train,_),(_,_)=mnist.load_data()# X_tra...原创 2019-07-11 22:07:12 · 5036 阅读 · 2 评论 -
卷积神经网络
一、备注 最近在研究DCGAN,需要卷积神经网络的相关知识,之前零零散散地看过一些卷积神经网络的相关博客,打算乘此机会好好做一个总结,也算是为后面的学习打下基础。 卷积神经网络主要用于图像方面的应用例如图像识别与分类等,比较著名的卷积神经网络有VGGnet, AlexNet,GoogleNet,Resnet等。二、定义三、相关操作...原创 2019-07-04 23:30:48 · 7707 阅读 · 0 评论 -
卷积与反卷积
一、卷积1. 定义 之前在博客里面提到过卷积神经网络,里面有提到卷积操作,最近在阅读论文的时候又遇到了反卷积,所以将二者拿出来进行分析比较。 卷积是利用卷积核实现的,以一副图片为例,当它与一个卷积核进行卷积运算的时候,会得到一个feature map,feature map的大小与原图像相比一般会减小,这样就达到了提取特征的目的,同时,与全连接神经网络相比,又能够有效的减少参数数量,假设...原创 2019-07-09 17:27:04 · 965 阅读 · 0 评论 -
生成对抗网络(二)CGAN
一、简介 之前介绍了生成式对抗网络(GAN),关于GAN的变种比较多,我打算将几种常见的GAN做一个总结,也算是激励自己学习,分享自己的一些看法和见解。 之前提到的GAN是最基本的模型,我们的输入是随机噪声,输出的是对应的图像,但是我们没法控制生成图像的类型。比如,我要生成一张数字0的图片,但是GAN生成的图片却是数字0-9的图片,针对这个问题,Conditio...原创 2019-06-27 23:18:58 · 745 阅读 · 0 评论 -
参数优化之Batch Normalization
一、备注 最近我在研究深度学习和神经网络,看了一些比较经典的神经网络论文,有些地方不是很懂,于是简单地记录下来,一方面是供小伙伴们学习和讨论,另一方面也是通过写博客来激励自己学习。 神经网络的训练是一个玄学问题,参数调的不好的话训练速度会很慢。Batch Normalization是2015年提出的,主要是用于加快神经网络的训练,提高模型的泛化能力,而且实际测试的...原创 2019-06-23 16:31:14 · 2099 阅读 · 1 评论 -
生成对抗网络(一)GAN
一、简介 最近在研究深度学习相关的知识,看了CNN、RNN、DNN等经典的神经网络,然后研究了一下生成模型,也就是今天要讲的生成对抗网络(GAN),打算出一个系列,毕竟关于生成对抗网络的论文太多了,github上有整理,有兴趣的小伙伴可以自己看看原论文顺便跑一下代码,真的很有意思。 GAN自诞生起一直颇受赞誉,后期也衍生了很多变种,大多数只是在损失函数这一块做文章,...原创 2019-05-16 14:52:54 · 1791 阅读 · 3 评论 -
利用NVIDIA显卡(CUDA)跑神经网络
一、背景 最近在看生成对抗网络相关的论文,需要跑神经网络的模型,但是用笔记本跑的比较慢,所以想尝试一下NVIDIA的显卡。我台式机上的显卡是1050Ti,基本配置为win10+keras+tensorflow-gpu。在配置的过程中遇到了一点问题,于是记录下来,希望能给其他遇到类似问题的小伙伴一点帮助。我这里利用了keras实现的GANgithub源码, 这个源码包含了GAN及...原创 2019-05-06 15:48:41 · 10582 阅读 · 0 评论