![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络
文章平均质量分 82
xbmatrix
这个作者很懒,什么都没留下…
展开
-
解读Batch Normalization
参考:http://blog.csdn.net/shuzfan/article/details/50723877本次所讲的内容为Batch Normalization,简称BN,来源于《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》,是一篇很好的p转载 2017-04-10 22:57:35 · 502 阅读 · 0 评论 -
Batch Normalization 学习笔记
参考:http://blog.csdn.net/hjimce/article/details/50866313Batch Normalization 学习笔记原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《转载 2017-04-10 23:18:40 · 620 阅读 · 0 评论 -
卷积神经网络
参考:http://geek.csdn.net/news/detail/127365接下来介绍一种非常重要的神经网络——卷积神经网络。这种神经网络在计算机视觉领域取得了重大的成功,而且在自然语言处理等其它领域也有很好的应用。深度学习受到大家的关注很大一个原因就是Alex等人实现的AlexNet(一种深度卷积神经网络)在LSVRC-2010 ImageNet这个比赛中取得了非常好的成绩。转载 2017-03-25 20:54:39 · 803 阅读 · 0 评论 -
理解长短期记忆网络(LSTM NetWorks)
参考:http://www.csdn.net/article/2015-11-25/2826323递归神经网络人类并不是每时每刻都从头开始思考。正如你阅读这篇文章的时候,你是在理解前面词语的基础上来理解每个词。你不会丢弃所有已知的信息而从头开始思考。你的思想具有持续性。传统的神经网络不能做到这点,而且这似乎也是它的主要缺陷。比如,你想对电影中每个点发生的事件类型进行分类转载 2017-03-25 21:03:03 · 753 阅读 · 0 评论 -
受限波尔兹曼机
参考:http://blog.csdn.net/u012333003/article/details/36416027一、简述 受限玻尔兹曼机(RBM)是一类具有两层结构、对称链接无自反馈 的随机神经网络模型, 层与层之间是全连接,层内无链接 ,也就是说是一个二部图。RBM是一种有效的特征提取方法,常用于初始化前馈神经网络,可明显提高泛化能力。而由多个RBM结构堆转载 2017-03-25 20:44:31 · 720 阅读 · 0 评论 -
Word2vec参数
Word2vec将分好词的训练语料进行训练,假定我语料名称为test.txt且在word2vec目录中。输入命令:./word2vec -train text8 -output vectors.bin -cbow 0 -size 48 -window 5 -negative 0 -hs 1 -sample 1e-4 -threads 20 -binary 1 -iter 100原创 2017-04-05 00:03:12 · 1220 阅读 · 0 评论 -
Word2vec简单整理
参考:https://zhuanlan.zhihu.com/p/22477976http://yobobobo001.github.io/2016/05/26/%E6%88%91%E6%89%80%E7%90%86%E8%A7%A3%E7%9A%84word2vec/http://x-algo.cn/index.php/2016/03/12/281/#ihttps://www.zh原创 2017-03-28 00:37:50 · 13908 阅读 · 1 评论 -
神经网络概念理解
激励函数有哪些?各有什么特点?为什么引入非线性激励函数?如果不用非线性激励函数(其实相当于激励函数是f(x)=x),每一层输出都是上层输入的线性函数,无论该神经网络多少层,输出都是输入的线性组合,与没有隐藏层效果一样,即为最原始的感知机了。为什么引入ReLU?1. 对于深层网络,sigmoid函数反向传播时,很容易出现梯度消失,从而无法完成深层网络的训练。原创 2017-03-26 00:21:23 · 2010 阅读 · 0 评论