LLM-控制
文章平均质量分 93
LLM-控制
nopSled
一周一更
展开
-
Can Large Language Models Beat Wall Street? Unveiling the Potential of AI in Stock Selection翻译
资本市场是经济体内资本配置的有效渠道,其价格发现过程在维护金融体系的健康和稳定方面发挥着关键作用。价格发现过程取决于多种因素的复杂相互作用,包括公司和行业的具体因素、宏观经济数据、动量效应以及政治和地缘政治影响。市场参与者共同参与这一复杂的价格发现机制,从而确保金融市场的有效运作。选股本质上是一种价格发现机制,市场参与者通过该机制关注被认为“定价错误”的股票,从而提供相对于更广泛市场有吸引力的回报潜力。这一原则构成了价值投资的本质。翻译 2024-04-22 04:37:04 · 3 阅读 · 0 评论 -
Data-Copilot: Bridging Billions of Data and Humans with Autonomous Workflow翻译
在数据驱动的世界中,金融、气象、能源等各个行业每天都会产生大量异构数据。这种范围广泛、形式多样的数据包含了重要的见解,可用于从预测金融趋势到监控能源消耗等众多应用。最近,大型语言模型(LLM)的进步,特别是 ChatGPT 和 GPT-4 的出现,彻底改变了人工智能研究,并为先进的人工智能系统铺平了道路。利用思维链提示、人类反馈强化学习 (RLHF) 和指令遵循学习,LLM在对话、推理和生成方面表现出了卓越的能力。然而,面对数据的巨大和复杂性,LLM面临着管理、处理和显示数据的巨大挑战。翻译 2024-04-18 05:03:23 · 7 阅读 · 0 评论 -
AUTOACT: Automatic Agent Learning from Scratch via Self-Planning翻译
语言agent利用大语言模型(LLM)强大的推理能力基于外部世界的观察来生成可执行动作,已成为旨在解决复杂交互任务的人工智能系统的重要组成部分。赋予LLM这种交互能力的过程被称为其中规划起着关键作用,它负责分解复杂的任务,调用外部工具,反思过去的错误,并聚合来自各种来源的信息以达到最终目标。有很多工作直接促使闭源现成的LLM制定特定任务的计划。尽管闭源LLM非常方便和灵活,但它不可避免地会遇到未解决的问题,因为它们的可访问性通常要付出高昂的代价,而且它们的黑盒性质使得结果复现变得困难。翻译 2024-04-04 04:40:55 · 19 阅读 · 0 评论 -
A Multimodal Foundation Agent for Financial Trading: Tool-Augmented, Diversified, and Generalist翻译
金融市场对于经济稳定、促进资本配置和风险管理至关重要。由技术分析策略开发的金融交易系统通过实现高效交易来增强这些市场。基于规则的交易系统是僵化的,难以适应市场波动,常常导致在不断变化的市场中表现不佳。基于强化学习的系统表现出增强的适应性,但遇到了巨大的障碍,例如需要大量的训练数据和决策过程的不可解释性。此外,他们很难在不同的市场条件下进行泛化,对市场噪音敏感,并且往往无法将新闻和报告等多模态市场情报整合到他们的分析中。翻译 2024-03-21 05:41:19 · 38 阅读 · 0 评论 -
TOOLLLM: FACILITATING LARGE LANGUAGE MODELS TO MASTER 16000+ REAL-WORLD APIS翻译
工具学习旨在释放大语言模型 (LLM) 的力量,以有效地与各种工具 (API) 交互以完成复杂的任务。通过将 LLM 与 API 集成,我们可以极大地扩展它们的效用,并使它们能够充当用户和庞大的应用程序生态系统之间的高效中介。尽管 LLaMA 等开源LLM已经通过指令微调实现了多种功能,但它们在执行更高级别任务方面仍然缺乏复杂性,例如与工具(API)适当交互以完成复杂的人类指令。这种缺陷是因为当前的指令微淘主要集中在基本语言任务上,而相对忽视了工具使用领域。翻译 2024-02-20 04:42:39 · 193 阅读 · 0 评论 -
THINK-ON-GRAPH: DEEP AND RESPONSIBLE REASONING OF LARGE LANGUAGE MODEL ON KNOWLEDGE GRAPH翻译
大型语言模型 (LLM) 在各种自然语言处理任务中表现出了卓越的性能。这些模型利用应用于大量文本语料库的预训练技术来生成连贯且上下文适当的响应。尽管LLM的表现令人印象深刻,但在面临需要复杂知识推理任务时,LLM仍存在很大的局限性。首先,LLM通常无法为超出了预训练阶段所包含的专业知识的问题(图1a中的过时知识)或需要长逻辑链和多跳知识推理的问题提供准确的答案。其次,LLM缺乏可信度、可解释性和透明度,引发了人们对幻觉或有毒文本风险的担忧。翻译 2023-12-05 04:18:48 · 288 阅读 · 0 评论 -
On Generative Agents in Recommendation翻译
推荐系统在当代信息传播中发挥着关键作用,其能够主动塑造个人偏好和认知过程。尽管传统的有监督推荐方法取得了巨大成功并被广泛采用,但它仍然存在不足,离线指标和在线性能之间的巨大差距就证明了这一点。这种脱节阻碍了将学术研究有效地整合到现实世界推荐的应用中,这成为了该领域未来发展的瓶颈。想象一下存在一个用于推荐系统的可配置模拟平台——该平台忠实地捕获用户意图并对人类认知机制进行编码。这样的模拟器无疑有可能彻底改变推荐领域的传统研究范式,为数据收集、推荐器评估和算法开发提供创新途径。翻译 2023-11-18 04:01:01 · 163 阅读 · 0 评论 -
MEMGPT: TOWARDS LLMS AS OPERATING SYSTEMS翻译
近年来,大型语言模型(LLM)及其底层transformer架构已成为对话式AI的基石,并导致了广泛的消费者和企业应用。尽管取得了这些进步,LLM使用有限的固定长度上下文窗口极大地阻碍了它们对长对话或长文档推理的适用性。例如,最广泛使用的开源LLM在超过其最大输入长度之前只能支持几十条来回消息或推理短文档。由于 Transformer 架构的自注意力机制,简单地扩展 Transformer 的上下文长度会导致计算时间和内存成本的成倍增加,这使得新的长上下文架构的设计成为紧迫的研究挑战。翻译 2023-11-02 20:22:18 · 146 阅读 · 0 评论 -
WALKING DOWN THE MEMORY MAZE: BEYOND CONTEXT LIMIT THROUGH INTERACTIVE READING翻译
由于模型大小的增加、预训练数据的扩展以及具有自注意力机制的 Transformer 架构的调整,大型语言模型 (LLM) 取得了显着的进步。随着LLM能力的发展,用户越来越多地寻求在推理过程中使用更长的输入序列。这导致查询长文档中的信息、分析法律或科学论文以及管理扩展对话的需求不断增长。这些任务涉及消耗大量信息,凸显了较长上下文处理的重要性。尽管发展迅速,但自注意力机制的局限性变得明显,因为它的内存使用量随着序列的增加而增加,从而限制了上下文窗口的大小。翻译 2023-10-29 19:09:24 · 135 阅读 · 0 评论 -
Responsible Task Automation: Empowering Large Language Models as Responsible Task Automators翻译
最近先进的大型语言模型(LLM)在许多现实世界场景中表现出强大的语言理解,推理,生成,泛化和对齐能力。LLM通过扩大深度学习来获取有关开放领域任务的通用知识,这标志着迈向通用人工智能的重要里程碑。除了语言任务之外,LLM还通过与特定领域的模型合作,获得了多模态感知和生成能力。研究人员一直通过将LLM连接到各种特定领域模型或API上来彻底改变任务自动化的领域,其中LLM充当大脑从而作为协调器,而特定领域的模型或API则充当动作执行器。采用LLM来构建用于自动完成各种任务的通用助手仍处于初步探索阶段。翻译 2023-06-26 14:12:59 · 92 阅读 · 0 评论 -
RECURRENTGPT: Interactive Generation of (Arbitrarily) Long Text翻译
事实证明,大型语言模型(LLM)(例如ChatGPT)是非常有效的工具,可帮助执行各种常规写作任务,包括电子邮件和博客文章。然而,由于Transformer结构固有的固定大小的上下文设计,仅通过提示LLM来生成长文本(例如小说)是不可行的。相反,从理论上讲,循环神经网络(RNN)具有生成任意长度序列的能力,这要归功于其循环机制:RNN维持一个在每一个时刻进行更新的隐藏状态,并在每个时刻使用当前的输出作为下一时刻的输入。但是,实际上,RNN会面临梯度消失和爆炸的问题,并且很难扩大其模型尺寸。翻译 2023-06-08 18:28:18 · 389 阅读 · 0 评论 -
TaskMatrix.AI: Completing Tasks by Connecting Foundation Models with Millions of APIs翻译
从可以处理和理解不同模态数据的理解模型(例如BERT,ViT,Whisper)到可以生成各种类型输出并与世界交互的生成式模型(例如GPT-4,GPT-3,Codex,DALL·E),基础模型在这十年中取得了显着的进步。ChatGPT令人印象深刻,许多人认为这是生成式智能(AGI)出现的标志。但是,基础模型在一些特定任务上仍然面临局限性和挑战,例如执行准确数学计算的任务或在现实世界完成需要处理文本和视觉技能的多步骤任务。翻译 2023-05-10 13:46:43 · 263 阅读 · 0 评论 -
ChatGPT for Robotics: Design Principles and Model Abilities翻译
自然语言处理(NLP)的快速发展导致了大型语言模型(LLM)的发展,例如BERT,GPT-3和Codex,它们正在彻底改变各种应用场景。这些模型在各种任务中取得了显着的结果,例如文本生成,机器翻译和代码生成等。这些模型家族的最新成员是OpenAI ChatGPT,这是一种预训练的文本生成模型,使用人类反馈进行了微调。与以前仅在单个提示(任务)下运行的模型不同,ChatGPT通过对话提供了特别令人印象深刻的交互技巧,将文本生成与代码生成相结合。翻译 2023-05-08 11:00:59 · 378 阅读 · 0 评论 -
Generative Agents: Interactive Simulacra of Human Behavior翻译
我们如何制作一个可以反映可信人类行为的交互人类社会?从模拟人生等沙盒游戏到认知模型和虚拟环境等应用,在过去40年,研究人员和从业人员已经设想能作为人类行为的可信代理的计算智能体。在这些愿景中,计算智能体基于其历史经历做出合理的行为,并对环境做出可信的反应。这种对人类行为的模拟可以放置到虚拟空间,并和现实社会现象交流,这可以教人们如何处理罕见但困难的人际交往,测试社会科学理论,为理论和可用性测试建模人类处理器,加速计算应用和社会机器人,并支撑了可以在开放世界中浏览复杂人际关系的游戏角色。翻译 2023-04-23 16:02:40 · 2257 阅读 · 0 评论