- 博客(7)
- 资源 (5)
- 收藏
- 关注
原创 记忆网络系列之Recurrent Entity Network
这篇论文是facebook AI在2017年的ICLR会议上发表的,文章提出了Recurrent Entity Network的模型用来对world state进行建模,根据模型的输入对记忆单元进行实时的更新,从而得到对world的一个即时的认识。该模型可以用于机器阅读理解、QA等领域。本文参考了Google团队的NTM和其他的神经计算单元,能够基于内容和位置对记忆单元进行读写操作。本文在babi
2018-01-30 12:15:03 2425
原创 记忆网络系列之Key Value Memory Network
在上一篇End to end memory network中提到,在问答系统中加入KB(knowledge bases)能提高训练的效果。但是一些KB,如FreebaseKB有内在的局限性,即1、不完整;2、有固定的模式不能支持所有类型的答案。因此即使KB方式能够满足特定领域的问题,但是不能扩大规模,在任何所有领域都行得通。因此,本文Key-Value Memory Networks for Di
2018-01-26 16:30:06 6023 1
原创 记忆网络模型系列之End to End Memory Network
上文记忆网络介绍模型并非端到端的QA训练,该论文End-To-End Memory Networks就在上文的基础上进行端到端的模型构建,减少生成答案时需要事实依据的监督项,在实际应用中应用意义更大。本文分为三个部分,分别是数据集处理、论文模型讲解及模型构造、模型训练。主要参考代码为MemN2N。数据集处理==论文中使用了babi数据集,关于本数据集在文章Ask Me Anyt
2018-01-19 21:55:28 5586 2
原创 记忆网络Memory Network
在本专栏的第一篇文章对话系统综述中提到,seq2seq中的记忆依靠rnnCell或者lstmCell实现,但是rnn和lstm的记忆能力实在有限,最多也就记忆十几个时间步长。因此当句子长度增长时或者需要添加先验知识时,seq2seq就不能满足此时对话系统的需求了。比起人工增加RNN隐藏状态大小,我们更愿意任意增加加入模型的知识量,同时对模型本身做出最小限度改变。基本上,我们能用独立存储器——作
2018-01-18 11:55:10 16306 1
原创 实现基于seq2seq的聊天机器人
前几篇博客介绍了基于检索聊天机器人的实现、seq2seq的模型和代码,本篇博客将从头实现一个基于seq2seq的聊天机器人。这样,在强化学习和记忆模型出现之前的对话系统中的模型就差不多介绍完了。后续将着重介绍强化学习和记忆模型在对话系统中的应用。基于检索的聊天机器人的实现seq2seq模型详解tensorflow中的seq2seq的代码详解闲聊机器人在网上有很多有趣的小例子:c
2018-01-17 17:42:21 15215 6
原创 python 项目自动生成requirements.txt文件
我们为什么要使用requirements.txt呢?主要使用目的:任何应用程序通常需要设置安装所需并依赖一组类库来满足工作要求。要求文件是指定和一次性安装包的依赖项具体一整套方法。requirements.txt文件格式:requests==1.2.0 Flask==0.10.1这样我们就可以安装requirements.txt依赖pip install -r r
2018-01-17 17:05:43 106771 5
原创 Tensorflow模型的保存与恢复
最近在写对话生成的代码时,遇到一个问题就是在预测阶段,对于相同的输入,每一次生成的文本都不一样,而且生成的结果乱七八糟。因此定位到是训练好的模型没有restore,特此记录一下TensorFlow中模型的保存与恢复问题,即tf.train.saver函数的使用。创建Saver模型保存,先要创建一个Saver对象:如saver=tf.train.Saver()在创建这个Sav
2018-01-17 09:49:28 4059
第十三到十五课
2018-01-12
第十到十二课
2018-01-12
第七到九课
2018-01-11
第四到六课
2018-01-11
机器学习要点第一到三课
2018-01-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人