深度学习
文章平均质量分 92
~扬之水~
这个作者很懒,什么都没留下…
展开
-
使用Anaconda在Windows下运行TensorFlow代码可能产生多套变量问题
在Anaconda中的py程序默认都是在同一个图中运行的,除非关掉Anaconda,否则两次运行同一个py代码时,这两次的代码是在同一个图中。在定义变量时,在同一个图中,同一句代码tf.Variable所生成的变量是不同的名字。# 权重weights = {'h1': tf.Variable(tf.random_normal([n_input, n_hidden_1])),……print...原创 2019-06-03 17:54:59 · 232 阅读 · 0 评论 -
RNN语音分类-普通话广东话分类
利用循环神经网络,基于梅尔频率倒谱系数(MFCC)的语音信号处理技术来进行语音分类,由于只有两个分类,学习难度不算大,相对运算也不算大,一般3个小时内可以训练出不错的模型。对语音分类后可以将语音传给百度不同类别的语音识别翻译出对应的文字。收集数据及整理本训练的数据可以通过收音机类的app获取普通话和广东话的语音资料。训练需要wav格式的单声道的语音,每个语音数据的时间长度可以选择5s、10s、...原创 2019-03-03 23:10:07 · 3188 阅读 · 23 评论 -
CNN迁移学习
迁移学习迁移学习就是将一个问题上训练好的模型通过简单的调整使其适用于一个新的问题。由于大型网络很复杂,训练一个复杂的卷积神经网络需要非常多的标注数据,而且需要比较长的时间。迁移学习就是为了解决大量标注数据和训练时间问题的一种变通处理方式。在数据量足够的情况下,迁移学习的效果不如完全重新训练。但是迁移学习所需要的训练时间和训练样本数要远远小于训练完整的模型。而且可以得到不错的准确率。下面利用...原创 2019-01-15 11:14:54 · 2964 阅读 · 0 评论 -
自然语言处理
语言模型的评价方法perplexity 复杂度:在一个测试集上得到的perplexity越低,说明建模的效果越好。average branching factor 平均分支系数:模型预测下一个词时的平均可选择数量log perplexity可以视为 Cross EntropyTensorFlow提供了以下两个计算交叉熵的函数:tf.nn.softmax_cross_entropy_wit...原创 2019-01-07 17:06:30 · 662 阅读 · 0 评论 -
CNN卷积神经网络
tf.nn.conv2d介绍tf.nn.conv2d是TensorFlow里面实现卷积的函数,函数定义:tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_wid...转载 2019-01-10 15:26:05 · 467 阅读 · 0 评论 -
tf损失函数相关内容
tf.losses 模块tf.losses 模块实际是对tf.nn.下面的loss函数的高级封装。tf.losses 模块官方的api:官网API此模块下主要的Functionsabsolute_difference(): 为训练过程添加一个“绝对差异”loss,其实就是做差后取绝对值作为loss。add_loss(): 为loss集合添加额外定义的loss。compute_weigh...转载 2019-01-10 14:44:11 · 614 阅读 · 0 评论 -
循环神经网络
循环神经网络的主要用途是处理和预测序列数据。RNN:recurrent neural network:循环神经网络循环神经网络的主体结构A 的输入除了来自输入层xtx_txt,还有一个循环的边来提供上一时刻的隐藏状态( hidden state) ht−1h_{t-1}ht−1 。在每一个时刻,循环神经网络的模块A 在读取了xtx_txt 和ht−1h_{t-1}ht−1之后会生成新...原创 2018-12-05 17:09:24 · 648 阅读 · 0 评论 -
栈式自编码在深度学习中的意义
1.每一层都可以单独训练,保证降维特征的可控性。2.对于高维度的分类问题,因为节点太多,参数太多,一味地增加深度只会使结果越来越不可控,成为彻底的黑盒,而使用栈式自编码逐层降维,可以将复杂问题简单化,更容易完成任务。3.任意深层,理论上是越深层的神经网络对现实的拟合度越高,但是传统的多层神经网络,由于使用的是误差反向传播方式,导致层越深,传播的误差越小。栈式自编码巧妙地绕过这个问题,直接使用降...原创 2019-06-04 09:10:05 · 795 阅读 · 0 评论