- 博客(6)
- 资源 (4)
- 收藏
- 关注
原创 深度学习【6】二值网络(Binarized Neural Networks)学习与理解
http://blog.csdn.net/linmingan/article/details/51008830 Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to +1 or−1的工作是基于BinaryConnect: Training...
2016-03-29 19:56:59 17245 20
原创 深度学习【5】循环神经网络(RNN)反向传播算法(BPTT)理解
http://blog.csdn.net/linmingan/article/details/50958304循环神经网络的反向传播算法其实只是BP算法的一个简单变体而已。首先我们先看看循环神经网络的前向传播算法:需要注意的是,该RNN中前一时刻到当前时刻只有一个权重矩阵,该权重矩阵与时间并没有什么关系。整个前向传播算法与BP网络的前向传播算法的差别是多了一个前一时刻隐藏层的信息而...
2016-03-22 20:48:03 30153 6
原创 深度学习【4】基于深度循环神经网络(DRNN)的单通道音乐人声分离
注:这篇博客的内容来自论文SINGING-VOICE SEPARATION FROM MONAURAL RECORDINGS USING DEEP RECURRENT NEURAL NETWORKS。http://blog.csdn.net/linmingan/article/details/50957525单通道音乐人声分离的目的是,从一首单通道歌曲中分离出人声和伴奏声。可以用表示,其中...
2016-03-22 19:05:52 15906 7
原创 深度学习【3】keras:保存keras学习好的深度神经网络模型参数为二进制和txt文件
http://blog.csdn.net/linmingan/article/details/50906141由于工程需要,保存为hdf5的keras权值在c/c++中的读取比较不方便。因此将keras中的权值剥离出来,并保存为二进制文件或者txt文件。在进行代码的编写之前我们必须先知道keras中model类对于每一层的参数如何表示的。以下,我将以加入Batch Normalization的...
2016-03-16 16:23:20 11931
原创 深度学习【2】Batch Normalization 论文翻译
注:本文翻译的原文为Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift中的BN理论知识(到3.1小节),同时会在翻译过程中加入一些自己的理解。目的是加深对提出BN的目的及其原理的理解。英语水平以及知识水平有待提高,有不足之处请大家提出来。 http://blog....
2016-03-02 16:04:11 11004 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人