- 博客(2)
- 资源 (16)
- 收藏
- 关注
原创 LLMAAA: Making Large Language Models as Active Annotators 阅读笔记
文中提出了LLMAAA,它将LLM作为注释器,并将它们放入一个主动学习循环中,以保证有效地注释。为了使用伪标签进行鲁棒学习,优化了注释和训练过程:(1)我们从一个小的演示池中提取k-NN样本作为上下文示例,(2)我们采用自动重新加权技术为训练样本分配可学习的权重。与以前的方法相比,LLMAAA具有效率和可靠性。文中对两个经典的自然语言处理任务,命名实体识别和关系提取进行了实验和分析。使用LLMAAA,从LLM生成的标签训练的特定于任务的模型可以在数百个带注释的示例中超越其老师LLM,这比其他基线更具成本效益
2024-06-13 14:08:56 1128
原创 Multimodal Chain-of-Thought Reasonging in Language Models的阅读笔记
大语言模型利用思维链提示生成中间推理链作为推断答案的基本原理,在复杂推理方面表现出令人印象深刻的性能。现有研究主要集中在语言形态上,文中提出了多模态coT,将语言和图像模态分为两个阶段的框架,分离理由生成和答案推理。通过这种方式,答案推理可以利用多模态信息生成更好的理由。Mulitimodal-CoT,在十亿个参数下的性能比LLM(chat-3.5)高出16个百分点,甚至超过了ScienceQA基准的人类性能。
2024-03-16 16:52:14 1144 1
软件工程实验报告-内包含数据库源代码
2022-06-29
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人