normalizing flow
文章平均质量分 85
介绍normalizing flow的技术细节,重点关注nf在nlg上的应用
ZedKingCarry
成长中……
展开
-
【标准化流在文本上的应用(一)】Continuous Language Generative Flow
这篇论文提出了一种新的基于流的语言生成模型,该模型在连续潜在空间中处理离散语言数据,并在多个下游任务中展示了其有效性。通过非自回归和自回归变体,该模型在密度估计、问题生成、机器翻译和问答数据增强方面均取得了显著的改进。尽管在非自回归生成质量方面仍有提升空间,但该研究为自然语言生成领域提供了有价值的新视角。原创 2024-03-11 10:45:27 · 896 阅读 · 0 评论 -
【flow-based model [二]】 Block Neural Autoregressive Flow
本文提出了B-NAF,这是一种新型的归一化流,用于有效和高效地逼近复杂密度函数。B-NAF通过直接参数化变换来确保自回归性和单调性,同时显著减少了参数数量。实验结果表明,B-NAF在多个任务上与现有的NFs相比具有竞争力,为未来的研究提供了新的方向。原创 2024-03-05 21:41:30 · 914 阅读 · 0 评论 -
【flow-based model (一)】AdvFlow: Inconspicuous Black-box Adversarial Attacks using Normalizing Flows
AdvFlow是一种利用归一化流进行黑盒对抗攻击的方法,它通过生成与干净数据分布相似的对抗样本来提高攻击的隐蔽性。论文的实验结果表明,AdvFlow在攻击成功率和查询次数方面优于现有方法,并且在对抗样本检测器面前具有较低的可检测性。论文还提出了未来的研究方向,包括扩展到其他数据类型和提高分类器的鲁棒性。原创 2024-03-05 15:44:31 · 850 阅读 · 0 评论 -
【Kimi帮我读论文】《LlaMaVAE: Guiding Large Language Model Generation via Continuous Latent Sentence Spaces》
论文提出了LlaMaVAE模型,旨在通过VAE架构和INN来提升LLMs的文本生成控制能力。通过实验验证了模型的有效性,并指出了未来研究的可能方向,包括探索更大的LLMs和更多样化的INN架构。原创 2023-12-25 15:16:28 · 762 阅读 · 0 评论 -
[nflow学习] demo学习
normalizing flow学习,文章以两个Demo代码为例说明了nflows框架实现normalizing flow的步骤。用nf的拟合能力实现了对仿真数据分布的拟合,并比较了两者的拟合效果。原创 2023-03-16 15:02:37 · 210 阅读 · 0 评论 -
【nflows学习】nflows库学习
nflows库原创 2023-03-15 11:36:07 · 262 阅读 · 0 评论