深度学习
文章平均质量分 88
学术状态抽奖器
Be self
展开
-
深度学习(BOT方向) 番外1 Seq2Seq的变种VHRED MrRNN
系列目录: 要不,和机器聊聊?– 小谈Bot系统 Seq2Seq Chatbot 聊天机器人:基于Torch的一个Demo搭建 手札 深度学习(BOT方向) 学习笔记(1) Sequence2Sequence 学习 深度学习(BOT方向) 学习笔记(2) RNN Encoder-Decoder 及 LSTM 学习 深度学习(BOT方向) 番外1 Seq2Seq的变种VHRED MrRN原创 2016-11-27 20:51:57 · 3475 阅读 · 0 评论 -
要不,和机器聊聊?-- 小谈Bot系统
系列目录: 要不,和机器聊聊?– 小谈Bot系统 Seq2Seq Chatbot 聊天机器人:基于Torch的一个Demo搭建 手札 深度学习(BOT方向) 学习笔记(1) Sequence2Sequence 学习 深度学习(BOT方向) 学习笔记(2) RNN Encoder-Decoder 及 LSTM 学习 深度学习(BOT方向) 番外1 Seq2Seq的变种VHRED MrRN原创 2016-11-29 12:39:32 · 2981 阅读 · 0 评论 -
Tensorflow #3 使用DNN构造Iris分类器
1 前言这篇文章主要是根据Tensorflow官方的API文档整理得到的。 本文的主要目的是学习使用Tensorflow提供的机器学习API,构建一个基于神经网络的分类器,对经典的Iris分类数据进行分类。这里的高级API主要是指代tf.contrib.learn里提供的API,2 步骤首先这里说一下基本步骤:从原始数据集的CSV里面读取数据,并且加载到Tensorflow当中构建一个基于神经原创 2016-11-18 19:38:40 · 19835 阅读 · 3 评论 -
深度学习(BOT方向) 学习笔记(1) Sequence2Sequence 学习
1 前言这个深度学习,其实是来自每周Paper笔记的整理版,即文章的主要内容其实是我对一篇文章的整理,受限于个人水平,可能很多地方会出现理解偏差、或者理解不到位的地方,所以如果发现什么不对的地方欢迎交流。之前我一直不想发这个博文,因为觉得我水平实在有限,不过现在看来还是不论好坏,拖出来见见光好了。所以这个系列的博文的主要内容是我每周Paper阅读的笔记整理,偶尔穿插着一些实验内容。文章的具体信息我会原创 2016-10-16 20:47:51 · 18800 阅读 · 0 评论 -
深度学习(BOT方向) 学习笔记(2) RNN Encoder-Decoder 及 LSTM 学习
深度学习(BOT方向) 学习笔记(2) Sequence2Sequence 学习21 前言这个系列的笔记拖了很久了,一直没时间仔细详细写,一来是因为自己能力不足,学习进度也很慢,二是真的很懒,也没有什么outline,所以一直拖着没写,现在终于挤出第二篇来了。话说之前的第一篇,我很匆忙的写了写Sequence2Sequence RNN-Encoder-Decoder的框架,写的不是很认真,这篇博客则原创 2016-11-25 22:28:28 · 17541 阅读 · 8 评论 -
Tensorflow RNN源代码解析笔记1:RNNCell的基本实现
前言本系列主要主要是记录下Tensorflow在RNN实现这一块的相关代码,不做详细解释,主要是翻译加笔记。RNNCell在Tensorflow中,定义了一个RNNCell的抽象类,具体的所有不同类型的RNN Cell都是基于这个类的,所以就首先讲一下这个,下面是基本的代码:class RNNCell(object): def __call__(self, inputs, state, scop原创 2017-03-07 21:58:52 · 8242 阅读 · 3 评论 -
Tensorflow RNN源代码解析笔记2:RNN的基本实现
1 前言话说上回说到了RNNCell的基本实现,本来按照道理来说,应该介绍LSTM GRU的,但是奈何这些于我而言也是不太熟悉(然后我又悲伤的想到了那个电话,哎),所以不如先说说RNN网络的实现吧,毕竟之前熟悉的是基本的RNNCell,现在再熟悉下RNN的具体实现,那不正好可以完整的学习一个基本版的RNN么? Tensorflow RNN源代码解析笔记1:RNNCell的基本实现2 基本说明Te原创 2017-03-16 15:46:53 · 9400 阅读 · 1 评论 -
RNN的入门烹饪指南
本文首发于如下微信号:循环神经网络RecurrentNeural Network (RNN),是一个拥有对时间序列显示建模能力的神经网络。RNN相对于传统前馈神经网络的“循环”之处具体表现为RNN网络会对之前输入的信息进行记忆归纳,并把这份“记忆”应用于当前的计算。理论上来说,RNN非常适用于处理序列数据、并且可以支持对任意长度的序列处理。RNN网络图及展开示意图原创 2017-07-20 11:14:01 · 1417 阅读 · 0 评论 -
Tensorflow 机器翻译NMT笔记 1 快速上手
开始首先,这篇博客基本基于:https://github.com/tensorflow/nmt/ 的内容来的,作为个人学习的笔记,也当做一个博客内容分享。顺序和Github上的顺序有一些区别,注意咯首先,这里讲的是一个基于Seq2Seq实现的机器翻译系统,即Neural Machine Translation,具体的论文可以参考(Sutskever et al., 2014, Cho et al.,原创 2017-09-03 21:17:52 · 13121 阅读 · 14 评论