深度学习
wamg潇潇
此人很懒,真的什么都没有写(。・ω・。)!!
展开
-
TensorFlow 模型保存/加载方法: Saver与Restore
目录0 .保存模型tf.train.Saver()类tf.train.Saver.restore()加载模型1. 加载 图结构+模型参数 tf.train.import_meta_graph2.只加载数据,不加载图结构 tf.train.get_checkpoint_state3. tf.train.get_checkpoint_state() 函数说明:...转载 2019-07-19 10:12:37 · 5490 阅读 · 0 评论 -
keras实现GAN网络的代码详解
目录导入模块产生真实样本x_sample() & 噪声样本z_sample()定义生成器generator_model可视化神经网络的函数 plot_model定义判别器discriminator_model定义一个含有判别器D的生成器generator_containing_discriminator(g, d)绘制直方图show_image...原创 2019-05-13 10:50:26 · 5980 阅读 · 3 评论 -
深度学习的激活函数 :sigmoid、tanh、ReLU 、Leaky Relu、RReLU、softsign 、softplus、GELU
【 tensorflow中文文档:tensorflow 的激活函数有哪些】激活函数可以分为两大类 :饱和激活函数:sigmoid、 tanh 非饱和激活函数:ReLU 、Leaky Relu 、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点: 1.首先,“非饱和激活...原创 2019-05-06 17:56:43 · 21149 阅读 · 3 评论 -
一文弄懂神经网络中的BP反向传播算法
注:本文转自 一文弄懂神经网络中的BP反向传播算法-Charlotte77-博客园安利Charlotte77 的深度学习系列博客最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程(英文版),有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。...转载 2019-04-18 15:46:45 · 2076 阅读 · 3 评论 -
神经网络模型用于数学建模
1 神经网络简介目录1 神经网络简介1.1 人工神经元结构激活函数 ϕ(⋅ ) Matlab 中的激活(传递)函数1.2 网络结构及工作方式2 蠓虫分类问题与多层前馈网络2.1 蠓虫分类问题 2.2 多层前馈网络2.3 后向传播...原创 2019-04-26 16:01:52 · 29887 阅读 · 2 评论 -
摘录:转AI的一些建议
注:本文转自普通程序员如何转向AI方向 - 计算机的潜意识 的博客,感兴趣的话可以多看看TA的博文哟!我能做的就是在这基础上,推荐了李航博士的《统计学习方法》1.普通程序员,如何转向人工智能方向?对普通程序员的定义是:拥有大学本科知识;平时工作较忙;自己能获取的数据有限。AI(人工智能)并不仅仅包括机器学习;关于AI领域的发展历史介绍推荐看周老师写的《机器学习简介》,AI不好跨...转载 2019-04-13 13:57:09 · 357 阅读 · 0 评论 -
ConvnetJS :可视化 神经网络的二元分类效果
进入网页ConvnetJS demo,可视化双层神经网络的分类结果,红点表示类别0,绿点表示类别1的数据,type为网络层之间的连接方式,fc表示fully connected(全连接),activation为激活函数,此处用双曲正切函数,对于分类采用softmax,类别数目 num_classes为2layer_defs.push({type:'fc', num_neurons:...原创 2019-04-16 11:30:56 · 1447 阅读 · 2 评论 -
(译)理解LSTM网络 ----Understanding LSTM Networks by colah
目录1. RNN的不足之处2. LSTM2.1 LSTM原理3 逐步理解 LSTM1. forget gate layer遗忘门2. input gate layer3. output gate layer4LSTM 的变种 GRU4.1. GRU 与LSTM的对比5. 其它变种5.1. peephole connections1. RNN的不足...翻译 2019-04-03 13:58:57 · 1180 阅读 · 0 评论 -
GAN网络:JS散度与Wasserstein距离
目录1 生成模型与判别模型的区别2 各种距离&散度的度量2.1 香农熵2.2 信息熵2.3 交叉熵2.4 KL散度(相对熵)2.5 JS散度2.6 Wasserstein距离1 生成模型与判别模型的区别生成模型:对数据的联合分布建模,从统计角度表示数据分布与数据生成方式,收敛速度快常见生成模型有:隐马尔可夫模型HMM、朴素贝叶斯模型、高斯...原创 2019-04-01 16:09:14 · 2558 阅读 · 0 评论 -
Deep Learning -深度学习综述
【论文链接】Deep learning ,Yann LeCun, Yoshua Bengio & Geoffrey Hinton,Nature,2015深度学习发展得益于计算能力提升和数据量的增长,无需人工设计特征,深度学习通过BP(反向传播)来显示机器将会如何根据前一层的表征改变来计算每层表征的内部参数,使用快速GPU预训练,从而可以发现高维大数据集的复杂结构,其特征提取器将原始数...原创 2019-03-27 09:09:40 · 616 阅读 · 0 评论 -
Alex-Net
ImageNet Classification with Deep Convolutional Neural Networks论文评价Alex-Net的创新点IntroductionThe Dataset--- ImageNet数据集预处理ReLU NonlinearityTraining on Multiple GPUsLocal Response NormalizationOverla...原创 2019-03-17 11:36:30 · 960 阅读 · 0 评论 -
ResNet: 深度残差网络---Deep Residual Learning for Image Recongnition
深度残差网络在2015年的ImageNet 图像分类/检测/定位和COCO detection/segmentation的ILSVRC & COCO竞赛中取得了冠军。而这篇《Deep Residual Learning for Image Recongnition》也被评为CVPR2016的BEST PAPER.论文链接 https://arxiv.org/pdf/1512.0...原创 2019-03-16 12:13:33 · 2962 阅读 · 0 评论