自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

转载 C++ String类的构造函数、拷贝构造函数的实现

构造函数、析构函数与赋值函数是每个类最基本的函数,在一些公司的面试中也会经常问到这方面的问题。每个类只有一个析构函数和一个赋值函数,但可以有多个构造函数(包含一个拷贝构造函数,其它的称为普通构造函数)。对于任意一个类A,如果不手动编写上述函数,C++编译器将自动为类A生成四个缺省的函数:   A(void);                    // 缺省的无参数构造函数   A

2017-08-30 20:33:37 1317

转载 LSTM原理图解析及入门学习

原文地址:http://blog.csdn.net/hjimce/article/details/51234311作者:hjimce 一、相关理论    本篇博文主要讲解LSTM、GRU的前向传导过程;因为我觉得反向求导,只要你根据公式按步骤求偏导数,那么只要学会复合函数的求导法则就可以反向推导出来了。除了CNN中的卷积层、池化层这种稍微比较奇葩的求导之外,深度学习的反向求

2017-08-25 10:13:52 4065

转载 Keras模型的加载和保存、预训练、按层名匹配参数

我们不推荐使用pickle或cPickle来保存Keras模型你可以使用model.save(filepath)将Keras模型和权重保存在一个HDF5文件中,该文件将包含:模型的结构,以便重构该模型模型的权重训练配置(损失函数,优化器等)优化器的状态,以便于从上次训练中断的地方开始使用keras.models.load_model(filepath)来重新实例化你的模型,

2017-08-24 15:05:14 9830 3

原创 Keras默认使用的后端模式(Theano/TensorFlow)设置

其实就是在C:\Users\75538(75538是我的windos用户名字,找你对应的用户名就行)下有个文件夹.keras,里面有keras.json文件,改一下里面的内容就好了,如果没有文件夹和文件,手动创建就行。用theano的话,keras.json写入{ "image_dim_ordering": "th", "epsilon": 1e-07, "

2017-08-22 11:12:34 1384

原创 联合体

#include #includeusing namespace std;struct s1{union u{int i;};struct ss1{int i;};};struct s2{union{int i;};struct{int i;};};struct s3{//the same

2017-08-21 21:28:36 181

原创 Keras入门mnist_mlp.py

from keras.models import Sequential from keras.layers.core import Dense, Dropout, Activation from keras.optimizers import SGD from keras.datasets import mnist import numpymodel = Sequential(

2017-08-17 20:43:18 709

原创 有限状态机求解字符串匹配问题

问题描述:请实现一个函数用来判断字符串是否表示数值(包括整数和小数)。例如,字符串"+100","5e2","-123","3.1416"和"-1E-16"都表示数值。 但是"12e","1a3.14","1.2.3","+-5"和"12e+4.3"都不是。class Solution {public:    char arr[10] = "+-n.ne+-n";    int tu

2017-08-15 15:31:07 1807 1

原创 double运算精度问题

题目:下列表达式中,可以得到精确结果的是()A.double d1 = 3.0 - 2.6;B.double d4 = 2.5 * 1.5; C.double d2 = 30/300; D. double d3 = 1/2 + 0.5; a因为double用二进制计算,因为0.6转换成二进制有精度损失,所以计算结果为0.3999999999999999c

2017-08-09 10:56:07 24072 1

原创 我所理解的 SVM核函数的应用

我们通过乘数法得到了  ,现在我们把它们回带到 分界线 :+b\\\end{split}" style="overflow:hidden; display:inline-block; max-width:100%; margin:0px 3px; vertical-align:middle; color:rgb(51,51,51); font-size:14px; line-heigh

2017-08-04 16:25:59 1489

原创 Batch Normalization反方向传播求导

作者给出的批标准化的算法如下:算法中的ε是一个常量,为了保证数值的稳定性反向传播求梯度:因为:所以:因为:所以:因为:和所以:所以:对于BN变换是可微分的,随着网络的训练,网络层可以持续学到输入的分布。BN网络的训练和推断按照BN方法,输入数据

2017-08-04 10:48:56 3989 1

原创 我理解的-随机失活dropout的意义

关于Dropout,文章中没有给出任何数学解释,Hintion的直观解释和理由如下:  1. 由于每次用输入网络的样本进行权值更新时,隐含节点都是以一定概率随机出现,因此不能保证每2个隐含节点每次都同时出现,这样权值的更新不再依赖于有固定关系隐含节点的共同作用,阻止了某些特征仅仅在其它特定特征下才有效果的情况。  2. 可以将dropout看作是模型平均的一种。对于每次输入到网络中

2017-08-04 10:08:05 3826

转载 Batch Normalization 的原理解读

1:motivation作者认为:网络训练过程中参数不断改变导致后续每一层输入的分布也发生变化,而学习的过程又要使每一层适应输入的分布,因此我们不得不降低学习率、小心地初始化。作者将分布发生变化称之为 internal covariate shift。对于深度学习这种包含很多隐层的网络结构,在训练过程中,因为各层参数老在变,所以每个隐层都会面临covariate s

2017-08-01 16:51:53 394

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除