深度学习
文章平均质量分 95
AISeekOnline
* 不要在该努力拼搏的年纪选择安逸 *
展开
-
递归(循环)神经网络(RNN)简介
原文地址http://blog.csdn.net/aws3217150目录(?)[+]在此之前,我们已经学习了前馈网络的两种结构——多层感知器和卷积神经网络,这两种结构有一个特点,就是假设输入是一个独立的没有上下文联系的单位,比如输入是一张图片,网络识别是狗还是猫。但是对于一些有明显的上下文特征的序列化输入,比如预测视频中下一帧的播放内容,那么很转载 2017-05-02 12:57:46 · 990 阅读 · 0 评论 -
LSTM与GRU结构
转自https://www.cnblogs.com/taojake-ML/p/6272605.html,在此感谢原文博主一、RNN 的关键点之一就是他们可以用来连接先前的信息到当前的任务上,例如使用过去的视频段来推测对当前段的理解。如果 RNN 可以做到这个,他们就变得非常有用。但是真的可以么?答案是,还有很多依赖因素。有时候,我们仅仅需要知道先前的信息来执行当前的任务。例如,转载 2018-01-04 18:30:35 · 26755 阅读 · 2 评论 -
解读tensorflow之rnn 的示例 ptb_word_lm.py
原文出处:https://www.cnblogs.com/welhzh/p/6739370.html,在此感谢原文博主这两天想搞清楚用tensorflow来实现rnn/lstm如何做,但是google了半天,发现tf在rnn方面的实现代码或者教程都太少了,仅有的几个教程讲的又过于简单。没办法,只能亲自动手一步步研究官方给出的代码了。本文研究的代码主体来自官方源码ptb-word-l转载 2018-01-04 17:30:30 · 537 阅读 · 1 评论 -
TensorFlow找不到models库原因及解决方案
原因:1.0版本以后models模块已经删除掉了,都整合到examples下面解决方法:1、安装低版本的TensorFlow2、到我的网盘下载models库 链接:https://pan.baidu.com/s/1qYOICmK 密码:0xlk解压,将models文件夹放到site-packages下的tensorflow文件夹中,不知道site-packages的朋友直接在Py原创 2018-01-03 23:58:36 · 8763 阅读 · 2 评论 -
深度学习算法的几个难点
1、局部最优问题。深度学习算法的目标函数,几乎全都是非凸的。而目前寻找最优解的方法,都是基于梯度下降的。稍微有点背景知识的人都知道,梯度下降方法是解决不了非凸问题的。因此,如果找到最优解,将是深度学习领域,非常值得研究的课题。andrew在google的工作,也就是那只猫,其实训练过程是让人很费解的。为了缩短训练时间,项目组采用了分布式训练的方式。采用了1000台计算机,在不同的计转载 2017-03-15 09:33:08 · 2000 阅读 · 0 评论 -
一步步从零开始:使用PyCharm和SSH搭建远程TensorFlow开发环境
一般而言,大型的神经网络对硬件能力有着较高的需求――往往需要强劲的 GPU 来加速计算。但是你也许还是想拿着一台笔记本坐在咖啡店里安静地写 TensorFlow 代码,同时还能享受每秒数万亿次的浮点运算(teraFLOPS)速度?其实这个目标不难实现,使用 PyCharm 中的一个远程解释器,你就能通过远程的方式获得几乎和本地计算时一样的性能。Erik Hallstrm 在本文中分享了如何使用 P原创 2017-03-29 19:55:54 · 9856 阅读 · 1 评论 -
fastText具体代码实现过程
标签传播算法(Label Propagation)及Python实现zouxy09@qq.comhttp://blog.csdn.net/zouxy09 众所周知,机器学习可以大体分为三大类:监督学习、非监督学习和半监督学习。监督学习可以认为是我们有非常多的labeled标注数据来train一个模型,期待这个模型能学习到数据的分布,以期对未来没有见到的样本做预测。那这个性能的源头--训练数据,就原创 2017-07-03 18:57:51 · 7993 阅读 · 0 评论 -
Deep Learning模型之:CNN卷积神经网络(一)深度解析CNN
http://m.blog.csdn.net/blog/wu010555688/24487301 本文整理了网上几位大牛的博客,详细地讲解了CNN的基础结构与核心思想,欢迎交流。 [1]Deep learning简介[2]Deep Learning训练过程[3]Deep Learning模型之:CNN卷积神经网络推导和实现[4]Deep Learni转载 2017-04-28 17:55:24 · 7388 阅读 · 1 评论 -
LSTM cell结构的理解和计算
LSTM是传统RNN网络的扩展,其核心结构是其cell单元,网上LSTM的相关资料繁多,质量参差不齐,下面主要结合LSTM神经网络的详细推导和 Christopher Olah的blog两篇文章中的内容进行说明。主要介绍网络如何计算,为何这么算先不展开:)。前者一副图加上29个公式,简洁明了;后者娓娓道来,适合初学者。首先是LSTM cell最常见的结构图:这是变形的版本(找转载 2017-09-26 11:13:57 · 2034 阅读 · 0 评论 -
[译] 理解 LSTM 网络
作者 Not_GOD 关注2015.08.28 12:36* 字数 3362 阅读 157388评论 66喜欢 319赞赏 24Neil Zhu,简书ID Not_GOD,University AI 创始人 & Chief Scientist,致力于推进世界人工智能化进程。制定并实施 UAI 中长期增长战略和目标,带领团队快速成长为人工智能领域最专业的力量。转载 2017-09-15 18:12:16 · 335 阅读 · 0 评论 -
学习Tensorflow的LSTM的RNN例子
学习Tensorflow的LSTM的RNN例子16 Nov 2016前几天写了学习Embeddings的例子,因为琢磨了各个细节,自己也觉得受益匪浅。于是,开始写下一个LSTM的教程吧。还是Udacity上那个课程。源码也在Github上。RNN是一个非常棒的技术,可能它已经向我们揭示了“活”的意义。RNN我已经尝试学习了几次,包括前面我这篇笔记,所以就直接进入转载 2017-09-27 10:15:01 · 5791 阅读 · 3 评论 -
循环神经网络(RNN, Recurrent Neural Networks)介绍
这篇文章很多内容是参考:http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/,在这篇文章中,加入了一些新的内容与一些自己的理解。 循环神经网络(Recurrent Neural Networks,RNNs)已经在众多自然语言处理(Natural Langu转载 2017-05-02 09:00:48 · 826 阅读 · 0 评论 -
关于tensorflow 中 placeholder 与 reshape的一点坑
转自:https://blog.csdn.net/sky_asher/article/details/79717620在搭LeNet-5 模型时,在卷积层的输出到全连接层时,使用了reshape将四维的矩阵转化维2维矩阵时,发生了错误:起初以为时类型转换发生了错误,然后演算过后发现并没有错误。然后改了下 训练数据的输入格式 # 定义输入输出placeholder, *...转载 2019-07-08 23:34:13 · 1164 阅读 · 0 评论