做实验2

最近基本零进展。出现的问题:
1)GAN训练不好:
2)multi-gpu没有弄好,
应该:把所有的model和loss集成到一个class下。

计划:
1)GAN为什么会collapse:
–》观察:
G使用sample生成结果,reward一直是<0.2。
D对于loss_fake,在5个epoch之后稳定在0.5。无法判断G的回答是否有用。于是collapse。
G预训练结果不好。是一个问题。
–》发现seqgan的数据集是初始N(0,1),使用lstm生成的长度为20的句子。所以用在dialogue上不好用,是肯定的。
所以我应该去看lijiwei的代码,因为他是用在dialogue而且是对seqgan改动的初期。
-》
使用李纪为的方法,batch_size=128,尽力对G预训练好一些,在GAN中,D5G1,G训练时加入teacher-forcing,learning-rate使用1e-3.clip_grad_norm_使用5
发现问题,对D的train,D5中每次sample得到的是不同的batch数据。
进行teacher-forcing。

DP-GAN介绍说很容易D训练太好,无法梯度回传,和我的 情况不一样啊?

GAN的问题:
比如“西瓜汁好喝!”,我稍微改一下“西瓜汁好喝吗?”,尾巴动一点,整个意思都变了。GAN 局部信息重构到底是靠死记硬背训练样本,还是靠神经网络插值“生成”出来的?针对自然语言这种细节敏感的问题,GAN 不是一个首选方案,不然 n-gram 的 LM 也不会活到今天。
G来生成图像也相对容易,因为图像的结构化特征比较明显,就是用CNN可以较好提取的结构特征,但是语言的长程相关提取出来就比较难。语言应用需要对语言系统的整体结构特征进行提取,所以其应用落地就复杂一些。
GAN的梯度回传不好,参考Lan G的演讲。NLP的action space太大。

想法:
confirm在以前是什么样子,我能做什么改善。?
在dstc2数据集中,confirm是寻求确认,affirm是确认,request是要求店家的电话号码,thankyou/buy是对话结束。inform是询问。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值