自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 Best Practices and Lessons Learned on Synthetic Data for Language Models(语言模型合成数据的最佳实践和经验教训))

本文概述了研究,讨论了其。论文提供现有技术的经验证据来证明其有效性,并强调确保其真实性、保真度和公正性的重要性。论文强调需要负责任地使用合成数据来构建更强大、更具包容性和值得信赖的语言模型。

2024-05-11 22:53:43 620

原创 A Survey on Diffusion Models for Time Series and Spatio-Temporal Data(时空序列数据扩散模型综述)

时间数据,特别是是时空序列数据,是广泛的现实应用的重要数据结构[76]。时间序列被定义为数据点的顺序排列,按时间顺序分类。这些序列可以是单变量(涉及随时间变化的单个变量),也可以是多变量(包含多个变量)。例如,城市的每日空气质量测量构成一个单变量时间序列,而结合每日温度和湿度读数生成一个多变量序列。在实际应用中,时空数据是指观测值的集合,其中每个数据点由其在空间和时间中的位置定义,封装了各种数据结构,例如图形、轨迹甚至视频,如[76]中所述。

2024-05-09 16:27:43 990

原创 CodecLM: Aligning Language Models with Tailored Synthetic Data(CodecLM:将语言模型与定制的合成数据对齐))

已成为将大型语言模型(LLM)与特定任务指令对齐的关键,从而减少下一个令牌预测目标与用户实际目标之间的差异。为了减少人类收集或注释数据的劳动力和时间成本,研究人员开始探索使用LLMs来。最近的工作重点是生成多样化的指令并应用 LLM 来增加指令复杂性,通常忽略下游示例。目前尚不清楚如何定制高质量数据以在不同的目标指令分布和LLMs中获得更好的指令跟踪能力。为此,我们引入了 CodecLM,这是一个通用框架,用于,用于与不同下游指令分布和 LLM 进行 LLM 对齐。

2024-04-28 22:37:03 715

原创 ITERALIGN: Iterative Constitutional Alignment of Large Language Models(大型语言模型的迭代对齐)

规则提案模块创建了一套可用于进一步完善LLMs的指导原则。我们按照规则提案,实行规则驱动的自我完善。这涉及到基础LLMs的规则引发的。

2024-04-28 20:07:22 1142

原创 CYCLE:学习自我完善代码生成

预训练的代码语言模型在代码生成方面取得了可喜的性能,并提高了人类开发人员的编程效率。然而,现有的代码 LM 评估通常忽略了它们的能力,这些评估仅关注一次性预测的准确性。对于代码 LM 无法实现正确程序的情况,开发人员实际上发现很难调试和修复错误的预测,因为它不是由开发人员自己编写的。不幸的是,我们的研究表明,代码语言模型也无法有效地自我改进其错误的生成。在本文中,我们提出了 Cycle 框架,学习根据可用的反馈(例如测试套件报告的执行结果)来自我改进错误的生成。

2024-04-26 22:30:35 756

原创 What are human values, and how do we align AI to them?(什么是人类价值观?我们如何让人工智能适应这些价值观?)

CCAI 和类似的方法旨在引出价值观(Ganguli 等,2023),并找到人们同意的价值观,但实际上他们达成一致的是任意评论。例如,以下评论被视为 CCAI 的共同“价值观”: • AI 应该始终做正确的事情 • AI 不应该提供建议。• 人工智能应该很有趣。• 人工智能应积极解决和纠正其决策算法中的历史不公正和系统性偏差。• 人工智能应保持公正并仅陈述已证实的事实。• 人工智能应该促进自我激励和积极强化,这些都是价值观吗?有些看起来更像是政策,有些像是模糊的愿望陈述,有些看起来像是目标。

2024-04-26 16:25:39 876 1

原创 Knowledge Editing for Large Language Models: A Survey

大型语言模型(LLMS)最近由于其出色的理解,分析和生成文本的能力而根据其广泛的知识和推理能力来改变了学术和工业景观。然而,LLM的一个主要缺点是由于其前所未有的参数量,其预训练的大量计算成本。当经常需要将新知识引入预训练的模型中时,这种缺点会加剧。因此,必须开发有效的技术来预训练的LLM。传统方法通过直接微调编码预训练的LLM中的新知识。但是,天真的重新训练LLM可以是计算密集型的,并冒着与模型更新无关的有价值的预训练知识退化的风险。

2024-04-12 17:10:10 1267

原创 Data-efficient Fine-tuning for LLM-based Recommendation

利用大型语言模型(LLM)进行推荐最近引起了相当大的关注,其中微调在 LLM 的适应中发挥着关键作用。然而,在快速扩展的推荐数据上微调LLMs的成本限制了其实际应用。为了应对这一挑战,小样本微调提供了一种很有前途的方法,可以使LLMs快速适应新的推荐数据。我们提出了基于 LLM 的高效推荐的,旨在识别为 LLM 的身定制的代表性样本。虽然核心集选择与所提出的任务密切相关,但现有的核心集选择方法通常依赖于次优启发式指标,或者需要对大规模推荐数据进行成本高昂的优化。

2024-04-04 23:40:09 753 1

原创 From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction T

在大型语言模型领域,指令的平衡已成为焦点。认识到这一点,论文为LLMs引入了一种自引导方法,可以从大量开源数据集中自主识别和选择樱桃样本,从而有效地最大限度地减少手动管理和调整LLMs指令的潜在成本。我们的关键创新是,它是识别模型预期响应与其自主生成能力之间差异的关键指标。通过IFD的熟练应用,,模型训练效率显着提升。对 Alpaca 和 WizardLM 等数据集的实证验证支撑了我们的发现;只需传统数据输入的 10%,我们的策略就展示了改进的结果。

2024-04-04 19:50:43 840 1

原创 多模态大语言模型的 (R) 演变:调查

连接文本和视觉模式在生成智能中起着至关重要的作用。因此,受大型语言模型成功的启发,大量研究工作致力于多模态大型语言模型(MLLM)的开发。这些模型可以无缝集成视觉和文本模式作为输入和输出,同时提供基于对话的界面和指令跟踪功能。该论文对最近基于视觉的 MLLM 进行了全面回顾,分析了它们的架构选择、多模态对齐策略和训练技术。论文对这些模型进行了广泛的任务的详细分析,包括视觉基础、图像生成和编辑、视觉理解和特定领域的应用。论文还编译和描述训练数据集和评估基准,在性能和计算要求方面对现有模型进行比较。

2024-03-20 21:44:12 2009 1

原创 A Survey on Knowledge Distillation of Large Language Models(大语言模型知识蒸馏综述)

例如高级上下文跟踪(例如,上下文学习(Huang 等人,2022a)和指令跟踪(Taori 等人,2023))、改进与用户意图的一致性(例如,人类价值观/原则(Cui 等人,2023a),以及思想链(CoT)等思维模式(Mukherjee 等人,2023)),以及 NLP 任务专门化(例如,语义理解(Ding 等人) al., 2023a) 和代码生成 (Chaudhary, 2023))。该调查提出了第 6 节中的未解决问题,确定了知识蒸馏研究中当前的挑战和差距,为未来的工作提供了机会。

2024-03-20 15:17:55 1098 2

原创 Large Multimodal Agents: A Survey(大型多模态代理:综述)

大型语言模型(LLM)在支持基于文本的人工智能代理方面取得了卓越的性能,赋予它们类似于人类的决策和推理能力。与此同时,出现了一种新兴的研究趋势,重点是将这些由LLMs支持的人工智能代理扩展到多模式领域。此扩展使人工智能代理能够解释和响应不同的多模式用户查询,从而处理更复杂和细致的任务。论文 LLM 驱动的多模式代理进行了系统回顾,论文将其称为大型多模式代理(简称 LMA)。首先,论文介绍了开发 LMA 所涉及的,并将当前的研究主体分为。随后,论文审查了整合多个 LMA 的,以提高集体效率。该领域的。

2024-03-18 19:23:29 1913

原创 Retrieval-Augmented Generation for AI-Generated Content: A Survey (RAG检索增强生成)

实际的增强过程对最终的生成结果有很大影响。对更先进的增强基础的研究有望充分释放 RAG 的潜力。基于构建的RAG系统,增强功能有助于提高某些组件或整个管道的有效性。鉴于系统固有的复杂性,RAG 存在巨大的改进潜力,需要适当的调整和仔细的工程设计。期待进一步的实验分析和深入探索,开发更有效、更强大的 RAG 系统。正如第四节中所介绍的,RAG 是一种通用技术,已应用于多种模式和任务。然而,大多数现有作品直接整合外部特定生成任务的知识,而没有彻底考虑目标领域的关键特征。2)

2024-03-18 16:35:19 1197

原创 On the Essence and Prospect: An Investigation of Alignment Approaches for Big Models(大模型对齐)

LLMs通过建模和模仿人类来展现特定的个性。第二个重点是将具有特定个性的LLMs定制为。

2024-03-17 20:57:00 1351 1

原创 A Survey on Multimodal Large Language Models

多模态指令调优 (M-IT)多模态上下文学习 (M-ICL)多模态思维链 (M-CoT) 和LLM 辅助视觉推理 (LAVR) )。前三者构成了MLLM的基础,而最后一个则是以LLM为核心的多模式体系。需要注意的是,这三种技术是相对独立的,并且可以组合使用。因此,论文对一个概念的阐释也可能涉及到其他概念。论文首先详细介绍 M-IT(第 3.1 节),从架构和数据两个方面揭示LLMs如何适应多模态。然后论文介绍 M-ICL(第 3.2 节),这是一种在推理阶段常用来提高小样本性能的有效技术。

2024-03-15 22:39:23 1096 1

原创 The Rise and Potential of Large Language Model Based Agents: A Survey

长期以来,人类一直在追求相当于或超越人类水平的人工智能(AI),而人工智能代理被认为是实现这一追求的有前途的工具。人工智能代理是感知环境、做出决策并采取行动的人造实体。人们为开发智能代理做出了许多努力,但它们主要集中在算法或训练策略的进步,以增强特定任务的特定能力或性能。事实上,社区缺乏的是一个通用且强大的模型来作为设计能够适应不同场景的人工智能代理的起点。由于它们所展示的多功能能力,大语言模型(LLM)被认为是通用人工智能(AGI)的潜在火花,为构建通用人工智能代理带来了希望。

2024-03-15 16:01:36 987 1

原创 GraphEdit: Large Language Models for Graph Structure Learning

图结构学习(GSL)专注于通过生成新颖的图结构来捕获图结构数据中节点之间的内在依赖关系和交互。图神经网络 (GNN) 已成为有前途的 GSL 解决方案,利用递归消息传递来编码节点间的相互依赖关系。然而,许多现有的 GSL 方法严重依赖显式的图结构信息作为监督信号,这使得它们容易受到数据噪声和稀疏性等挑战的影响。在这项工作中,我们提出了 GraphEdit,这是一种利用大型语言模型 (LLM) 来学习图结构数据中复杂节点关系的方法。

2024-03-15 14:59:24 1150 1

原创 NExT-GPT: Any-to-Any Multimodal LLM(NExT-GPT:任意对任意多模态LLM)

虽然最近多模态大型语言模型(MM-LLM)取得了令人兴奋的进步,但它们大多受到仅的限制,而无法。由于我们人类总是通过各种方式感知世界并与人们交流,因此开发能够以任何方式接受和输出内容的任意 MM-LLM 对于人类水平的人工智能至关重要。因此,本论文提出了一个端到端通用的任意 MM-LLM 系统 NExT-GPT。论文将 LLM 与和不同的连接起来,使 NExT-GPT 能够感知输入并以文本、图像、视频和音频的任意组合生成输出。通过利用现有训练有素的高性能编码器和解码器,NExT-GPT仅使用某些。

2024-02-22 16:39:45 917 1

原创 A Survey on Large Language Model based Autonomous Agents(大语言模型智能代理综述)

先前自主代理的研究通常侧重于在孤立的环境中训练知识有限的智能体,这与人类的学习过程存在很大差异,从而使智能体难以实现类似人类的决策。最近,通过获取大量网络知识,大型语言模型(LLM)在实现人类水平的智能方面表现出了巨大的潜力。这引发了对基于LLM的自主代理的研究热潮。论文对这些研究进行了全面的调查,从整体角度对基于LLM的自主代理领域进行了系统回顾。更具体地说,论文首先讨论基于 LLM 的自主代理的构建,为此论文提出了一个包含大部分先前工作的统一框架。

2024-02-20 21:08:59 2253

原创 An In-depth Survey of Large Language Model-based Artificial Intelligence Agents(基于大模型的智能代理的深度调研)

由于大语言模型(LLM)所展示的强大功能,最近人们纷纷将其与人工智能代理集成以提高其性能。本论文探讨了基于LLM的AI代理与传统AI代理之间的核心差异和特征。具体来说,论文首先比较这两类智能体的基本特征,阐明基于LLM的智能体在处理自然语言、知识存储和推理能力方面的显着优势。随后,论文对AI智能体的关键组成部分进行了深入分析,包括规划、内存和工具使用。特别是,对于记忆的关键组成部分,本文引入了一种创新的分类方案,不仅脱离了传统的分类方法,而且为人工智能代理的记忆系统的设计提供了全新的视角。

2024-02-20 16:30:26 916

原创 Diffusion Models in Vision: A Survey

机微分方程 (SDE)**代表了扩散模型的另一种方法,形成了扩散模型的第三个子类。通过正向和反向 SDE 进行扩散建模可以产生高效的生成策略以及强有力的理论结果。后一种表述(基于 SDE)可以被视为对 DDPM 和 NCSN 的概括。论文确定了几种定义性的设计选择,并将它们合成为与上面介绍的三个子类别相对应的三个通用扩散建模框架。为了将通用扩散建模框架置于上下文中,论文进一步讨论扩散模型与其他深层生成模型之间的关系。

2024-02-15 23:12:25 1051 1

原创 A Survey on Video Diffusion Models

人工智能生成内容(AIGC)浪潮在计算机视觉领域取得了巨大成功,其中扩散模型在这一成就中发挥了至关重要的作用。由于其令人印象深刻的生成能力,扩散模型正在逐渐取代基于 GAN 和自回归 Transformer 的方法,不仅在图像生成和编辑方面,而且在视频相关研究领域也展现出卓越的性能。然而,现有的调查主要集中在图像生成背景下的扩散模型,很少对其在视频领域的应用进行最新回顾。因此,本文对 AIGC 时代的视频扩散模型进行了全面回顾。具体来说,论文首先简要介绍扩散模型的基础知识和演变。

2024-02-11 20:51:11 1063

原创 Instruction Tuning for Large Language Models: A Survey

本文调查了快速发展的Instruction Tuning (IT) 领域的研究工作,这是增强大型语言模型 (LLM) 功能和可控性的关键技术。指令调优是指以监督方式在由(指令,输出)对组成的数据集上进一步训练 LLM 的过程,它弥合了 LLM 的下一个单词预测目标与让 LLM 遵循人类的用户目标之间的差距。指示。在这项工作中,我们对文献进行了系统回顾,包括IT的一般方法、IT数据集的构建、IT模型的训练以及在不同模式、领域和应用中的应用,并分析了影响IT的方面。

2024-02-08 17:34:03 870

原创 Hexo搭建个人博客(github)

记录搭建个人博客的过程。

2024-02-06 15:33:24 1227 1

原创 A Survey of Reasoning with Foundation Models

LLM的推理能力综述

2024-02-04 21:02:28 916 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除