NLP: Neural Topic Modeling with Bidirectional Adversarial Training
这篇论文通过一种对抗学习的方式来学习到文本topic distribution,使用三个parts。
1.encoder将文档的word distribution送入网络后生成topic distribution
2. generator从dirichlet先验中采样后生成fake topic distribution经过网络尽可能使得生成文档的word distribution接近真实的
3. discriminator来判断真实的word+topic distribution是哪个
网络的loss:Wasserstein distance
如果为了获得单词之间的相关性,可以采用multivariate gaussian distribution