关于tf.contrib.layers.batch_norm的pytorch替代torch.nn.BatchNorm1d() 的一些注意事项 tf版本为1.14,torch为1.13.1,总结,可以用 torch.nn.BatchNorm1d() 替代,但三维输入数据时需要在应用 BatchNorm1d 前对最后两维进行转置,应用后再转置回来。二维输入时可直接替代。
NeurIPS 2021 神经主题模型的对比学习 Contrastive Learning for Neural Topic Model 这篇文章的目标是借助了对比学习框架去优化NTM学习到的主题分布和词分布,并将这个框架以多重输入(正样本和负样本都要通过推断网络得到隐向量)的形式融合到NTM的训练过程中,并没有额外地引入其他模块,同时,构建正样本和负样本的方式基于人类对相似文章的认知,关键词出现的次数越多越相似,先抽选出原文的关键词,负样本中关键词占比较少,正样本中不关键的词占比较少。
2019ACM收录文章 MVAE: Multimodal Variational Autoencoder for Fake News Detection 论文阐述了虚假新闻检测任务中图片,文字信息融合对检测准确率提升的重要性。提出了一种融合了图片和文本信息的VAE应用于虚假新闻检测。
变分自编码器(VAE) 本文介绍了变分自编码器,属于深度生成模型,建议读者有EM算法和变分推断的知识。其用两个神经网络拟合了两个复杂的概率密度函数,称为推断网络和生成网络,采用重参数技巧,以便使用梯度下降进行优化。
GMM高斯混合模型 高斯混合模型(Gaussian Mixture Model,GMM)是关于多个高斯分布的加权和,可以用于对含有多峰的数据进行建模,本文采用EM算法对其进行了参数估计,提供了完整的公式推导过程。
EM算法及公式推导 EM(Expectation Maximum)算法用于解决含隐变量的概率图模型的参数估计问题,基本思想是从样本数据的对数边际似然出发,通过引入变分函数来得到证据下界(ELBO,Evidence Lower BOund),之后让ELBO最大,从而使得对数边际似然最大,采用迭代的方法来最大化边际似然。