![](https://img-blog.csdnimg.cn/20190620145509418.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 76
与深度学习有关的知识,包括不限于自然语言处理,图像识别等相关知识
七彩吞天蟒
这个作者很懒,什么都没留下…
展开
-
【keras+flask】模型的重复调用出错,ValueError: Tensor is not an element of this graph
确认基调:这个问题不是大问题,看完本篇文章就能解决1. 错误重现ValueError: Tensor Tensor("dense_3/BiasAdd:0", shape=(?, 1), dtype=float32) is not an element of this graph.2. 错误含义表面含义:传入的张量[tensor]并不是这个图[graph]的元素。具体意义:就是说,当你进...原创 2019-06-13 18:13:27 · 1737 阅读 · 2 评论 -
【神经网络】从局部理解整个神经网络在做什么
神经网络是什么百科上说:神经网络可以指向两种,一个是生物神经网络,一个是人工神经网络。人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs)或称作连接模型(Connection Model),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而...原创 2019-02-21 15:46:01 · 428 阅读 · 0 评论 -
【神经网络】激活函数softmax,sigmoid,tanh,relu总结
sigmoid函数 ·隐含层激活函数映射区间(0, 1)反向传播之sigmoid公式求导softmax函数·输出层激活函数映射区间[0,1]激活函数SoftmaxSigmoid本质离散概率分布非线性映射任务多分类二分类定义域某个一维向量单个数值值域[0, 1](0, 1)结果之和一定为1为某个正数所在层...原创 2018-11-30 10:23:31 · 35239 阅读 · 3 评论 -
【神经网络】一文读懂LSTM神经网络
简介说到LSTM神经网络,大家都不陌生,LSTM指的是Long Short-Term Memory,意思是:长短时记忆,也就是说这个神经网络有记忆功能,为什么说它有记忆功能呢?因为在训练数据的时候,很久之前的文本保留下来的信息,可以对当下的预测产生影响,所以就认为神经网络记住了一部分信息。1. 与RNN对比由于LSTM来源于对RNN的升级,我们先从RNN入手,来理解整个LSTM在做什么...原创 2019-03-18 14:36:22 · 5089 阅读 · 3 评论 -
【自然语言处理】TextRank算法原理●Python实现
上文说了PageRank的实现方式,一鼓作气, 这次就把TextRank的原理和实现方式写一写TextRank的产生来自于PageRank,中心思想是一样的,只不过在PageRank里,网页与网页的关系,在TextRank里变成了词与词的关系。目的:从一段给定的文本中自动抽取出若干有意义的词语或词组。步骤:利用局部词汇(共现窗口)之间的关系生成关键词列表,然后通过计算,对后续关键词...原创 2019-01-28 18:02:59 · 3574 阅读 · 2 评论 -
【自然语言处理】PageRank算法原理●Python实现
1. 矩阵构造PageRank本为解决网页和网页之间的关系,计算网页重要性而提出的一种算法.PageRank算法计算每一个网页的PageRank值,然后根据这个值的大小对网页的重要性进行排序。 它的思想是模拟一个悠闲的上网者,上网者首先随机选择一个网页打开,然后在这个网页上呆了几分钟后,跳转到该网页所指向的链接,这样无所事事、漫无目的地在网页上跳来跳去,PageRank就是估计这个悠闲的上网...原创 2018-08-08 11:04:14 · 5984 阅读 · 0 评论 -
【自然语言处理】知识图谱之知识推理
1. 知识推理的分类归纳推理 归纳推理所推出的结论是没有包含在前提内容中的。由个别事物推出一般性的知识的过程,是以为增殖新知识的过程。演绎推理: 在已知领域内的一般性知识的前提下,通过求解一个具体的问题,或者证明一个结论的正确性。它所得出的结论,实际上早已蕴含在一般性的知识的前提中。演绎推理只是将已有的事实揭露出来,因此不能增殖新的知识。确定性推理 多数时候是指逻辑推理,具有...原创 2018-06-26 14:33:03 · 4005 阅读 · 0 评论 -
【自然语言处理】概率论基础笔记
贝叶斯公式P(B|A)=P(A|B)P(B)/P(A)全概率公式P(A) = P(B1)*P(A|B1) + P(B2)*P(A|B2) + ……..先验概率是指根据以往经验和分析得到的概率 * 如:抛硬币正面的概率; * 如:今天下雨的概率; * 如:脑残中头痛的概率(易于调查,可计算)。后验概率后验概率是信息理论的基本概念之一。在一个通信系统中,在...原创 2018-06-21 13:59:56 · 458 阅读 · 0 评论 -
【神经网络】从卷积核来理解卷积神经网络在做什么
1. 卷积是什么在泛函分析中,卷积、旋积或摺积(英语:Convolution)是通过两个函数f 和g 生成第三个函数的一种数学算子,表征函数f与g经过翻转和平移的重叠部分的面积。如果将参加卷积的一个函数看作区间的指示函数,卷积还可以被看作是“滑动平均”的推广。那f和g函数的卷积就可以表示为:连续形式离散形式通俗的理解卷积就是一种乘积的方式,只不过呢,不能按照我们惯有的...原创 2019-06-20 11:55:27 · 507 阅读 · 0 评论