![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络
sdfreregtrh
这个作者很懒,什么都没留下…
展开
-
卷积神经网络CNN
卷积神经网络的作用在人工神经网络中,当网络层数增多时,网络中的权值以成倍的速度在增长。比如当输入为一个10001000图片时(假如网络总共有6层,每层100个节点)则需要的权值数为:10001000100+100100*4,这么多的权值数目严重影响了网络的训练速度,为了训练好模型同时也需要更多的训练样例,同时过于复杂的模型也易导致过拟合的发生。在上例中,主要是前面的输入层到第一层的权重参数太多...原创 2019-11-14 11:01:27 · 138 阅读 · 0 评论 -
Tensorboard可视化的用法之构造神经网络
首先要知道Tensorboard是用来做什么的,它其实就是一个可视化的工具,是tensorflow里自带的下面有一段代码来说明具体怎么用:import tensorflow as tfimport numpy as npdef add_layer(inputs,in_size,out_size,activation_function=None): #...原创 2019-07-03 17:16:04 · 231 阅读 · 0 评论 -
Tensorboard可视化的用法之结果可视化
这里多了几个函数,tf.histogram(对应tensorboard中的scalar)和tf.scalar函数(对应tensorboard中的distribution和histogram)是制作变化图表的,两者差不多,使用方式可以参考上面代码,一般是第一项工作是字符命名,第二项工作就是要记录的变量了,最后用tf.summary.merge_all对所有训练图进行合并打包,最后必须用sess.ru...原创 2019-07-04 11:21:49 · 378 阅读 · 0 评论 -
tensorflow中的placeholder()以及tf.initialize_all_variables()函数的理解
为什么要用placeholder?tensorflow的设计理念就是先构造整个计算过程,也就是在编写程序时,先构造整个系统的graph,代码不会立即的生效,而是在运行的时候,启动一个Session,程序才会真正的运行.所以placeholder()函数的作用就是在神经网络在构建graph的时候占位,这个时候并没有把要输入的数据传入到模型,只是通过占位来分配了必要的内存,等建立会话之后,在运行模型...原创 2019-07-09 19:00:45 · 1577 阅读 · 0 评论 -
初识RNN 循环神经网络
RNN主要解决的什么样的问题主要解决序列对序列的问题,比如中文翻译成英文,将一句话翻译成语音等类似的问题为什么传统的神经网络不能用于处理序列对序列的问题:①假如用传统神经网络翻译句子的时候,你输入一个词的时候,就会对应有一个输出,所以导致输入和输出是一样长的,这与实际的翻译情况不符②翻译的时候,只与你输入的这个词相关,与你前后的词没有任何关系,这样会失去很多的信息,比如说小明是一个财务总监,财...原创 2019-09-19 12:21:43 · 149 阅读 · 0 评论 -
LSTM(长短期记忆) Bi-LSTM(双向长短时记忆)
LSTM是RNN的变形,也就是循环神经网络的形式之一,主要解决传统RNN记忆不了太长时间数据问题(像是一个容易遗忘的老人,记不住太久远之前的信息,所以就出现了LSTM,让他只记住有用的信息)传统RNN的问题分析:比如输入文本是我今天要做红烧排骨,首先要准备排骨,然后…,最后一道美味的菜就出锅了.这个时候我们要让RNN来判断我们到底做了什么菜,RNN可能给出辣子鸡这个答案,然后就反向的去推导误差...原创 2019-09-19 16:48:28 · 25341 阅读 · 1 评论 -
机器学习的评价方法PRF
目前学界主流是使用精确率(Precision)、召回率(Recall)和 F 值(F-measure)来评价一个信息检索系统的质量的。这三个值通常放在一起进行考虑,因此也被称为PRF 评价方法。假设参考样本中存在的信息条数为 all,系统抽取出的信息条数为 get_sys,其中抽取出的正确信息的条数为 current_sys,则精确率、召回率和 F 值的计算公式分别如式(2-23)、式(2-24...原创 2019-09-19 19:38:44 · 1791 阅读 · 0 评论 -
TensorFlow中数据集的分批训练
在神经网络模型的训练中 batch,epoch,iteration各代表什么意思呢?(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练,所以batch就相当于分批训练;(2)iteration:1个iteration等于使用batchsize个样本训练一次;(3)epoch:1个epoch等于使用训练集中的全部样本训练一次,...原创 2019-09-24 17:32:06 · 4018 阅读 · 0 评论