![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Deeplearning
铭霏
这个作者很懒,什么都没留下…
展开
-
使用深度学习打造智能聊天机器人
聊天机器人(也可以称为语音助手、聊天助手、对话机器人等)是目前非常热的一个人工智能研发与产品方向。很多大型互联网公司投入重金研发相关技术,并陆续推出了相关产品,比如苹果Siri、微软Cortana与小冰、Google Now、百度的“度秘”、亚马逊的蓝牙音箱Echo内置的语音助手Alexa、Facebook推出的语音助手M、Siri创始人新推出的Viv……转载 2017-02-26 17:51:28 · 1362 阅读 · 2 评论 -
神经网络中的权重初始化:Why and How
神经网络中的权重(weight)初始化是个常常被忽略的问题。最近在手写一个Python的神经网络库,刚开始为了测试代码是否写对,搭建了一个2->4->2的单隐层神经网络来拟合异或运算,拟合结果十分完美。但是在做MNIST手写数字识别,将网络扩展到了784->100->10时,发现损失函数一直不下降,训练准确率一直停留在10%左右(和随机猜的命中概率一样嘛)。一直以为是bac转载 2017-07-12 09:55:15 · 2209 阅读 · 0 评论 -
Batch Normalization导读
author: 张俊林Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。目前几乎已经成为DL的标配了,任何有志于学习DL的同学们朋友们雷迪斯俺的詹特曼们都应该好好学一学BN。BN倒过来看就是NB,因为这个技术确实很NB,虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-转载 2017-07-15 14:46:11 · 305 阅读 · 0 评论 -
Weights Update
Weights Update 与 DropoutWeights Update参数更新Weights Update学习率是怎么来的随机梯度下降-Stochastic Gradient DescentBatch与SGD的合体Mini-Batch Gradient Descent再给力点Momentum来了考虑得再多一些-Nesterov Momentum Upd转载 2017-07-15 15:46:11 · 1014 阅读 · 0 评论 -
LSTM与GRU结构
一、RNN 的关键点之一就是他们可以用来连接先前的信息到当前的任务上,例如使用过去的视频段来推测对当前段的理解。如果 RNN 可以做到这个,他们就变得非常有用。但是真的可以么?答案是,还有很多依赖因素。有时候,我们仅仅需要知道先前的信息来执行当前的任务。例如,我们有一个语言模型用来基于先前的词来预测下一个词。如果我们试着预测 “the clouds are in the sky” 最后转载 2017-07-23 12:57:36 · 2005 阅读 · 0 评论 -
一文看懂各种神经网络优化算法:从梯度下降到Adam方法
https://zhuanlan.zhihu.com/p/27449596转载 2019-02-14 16:32:03 · 662 阅读 · 0 评论 -
Adam那么棒,为什么还对SGD念念不忘
https://mp.weixin.qq.com/s/xm4MuZm-6nKTn2eE3eNOlg转载 2019-02-14 16:52:05 · 639 阅读 · 0 评论