论文阅读
文章平均质量分 65
0x211
这个作者很懒,什么都没留下…
展开
-
[论文阅读]Distilling Step-by-Step! Outperforming Larger Language Models with Less Training Data and Smal
中文译名:逐步蒸馏!以较少的训练数据和较小的模型规模超越较大的语言模型阅读原因:近期任务需要用到蒸馏操作,了解相关知识核心思想:改变视角。原来的视角:把LLMs视为噪声标签的来源。现在的视角:把LLMs视为能够推理的代理。方法好在哪?需要的数据量少,得到的结果好。文章的方法概览:对上图的解释:1.给定一个 LLM 和一个未标记的数据集,提示 LLM 生成输出标签以及证明标签合理性的基本原理。基本原理是为模型的预测标签提供支持的自然语言解释。原创 2024-09-28 16:53:23 · 154 阅读 · 0 评论 -
[论文阅读]Chain-of-Knowledge: Grounding Large Language Models via Dynamic Knowledge Adapting over Hetero
会议名称:International Conference on Learning Representations 2024(ICLR 2024)原创 2024-09-11 19:53:51 · 304 阅读 · 1 评论 -
[论文阅读]Learning from Limited Heterogeneous Training Data: Meta-Learning for Unsupervised Zero-Day Web
会议名称:CCS '23: ACM SIGSAC Conference on Computer and Communications Security。原创 2024-09-09 22:32:06 · 242 阅读 · 1 评论 -
[论文阅读]Socialbots on Fire: Modeling Adversarial Behaviors of Socialbots via Multi-Agent Hierarchical
会议名称:WWW '22: The ACM Web Conference 2022。原创 2024-09-09 22:16:11 · 398 阅读 · 1 评论 -
[论文阅读]Processing Dangerous Paths – On Security and Privacy of the Portable Document Format
会议名称:Network and Distributed System Security Symposium。原创 2024-09-08 20:57:22 · 209 阅读 · 0 评论