Neural Topic Modeling with Bidirectional Adversarial Training

NLP: Neural Topic Modeling with Bidirectional Adversarial Training


在这里插入图片描述

这篇论文通过一种对抗学习的方式来学习到文本topic distribution,使用三个parts。
1.encoder将文档的word distribution送入网络后生成topic distribution
2. generator从dirichlet先验中采样后生成fake topic distribution经过网络尽可能使得生成文档的word distribution接近真实的
3. discriminator来判断真实的word+topic distribution是哪个
网络的loss:Wasserstein distance

Gausssian-BAT的结构
如果为了获得单词之间的相关性,可以采用multivariate gaussian distribution

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值