任务规划与分解
文章平均质量分 80
一只特蕉
一个致力于特立独行的香蕉
展开
-
大语言模型-任务规划与分解论文
1、Chain-of-Thought Prompting Elicits Reasoning in Large Language Models https://arxiv.org/abs/2201.11903Chain-of-Thought Prompting Elicits Reasoning in Large Language Models2、Tree of Thoughts: Deliberate Problem Solving with Large Language Models https://a原创 2024-01-26 14:06:30 · 1175 阅读 · 0 评论 -
ART: Automatic multi-step reasoning and tool-use for large language models 导读
本文提出了一种名为ART的框架,可以自动地为大型黑盒语言模型生成多步推理过程,并使用工具库中的外部工具来提高性能。该框架通过检索任务库中与新任务相关的演示文稿,从而实现零样本分解和工具使用。ART提供了一个灵活但结构化的查询语言,使得解析中间步骤、停止生成以调用外部工具以及在包括这些工具输出后继续生成变得容易。此外,用户可以通过更新任务和工具库来修复任何错误或添加新工具,而无需重新训练模型。实验结果表明,ART在多个测试任务上表现优异,特别是在需要算术和算法推理的任务上表现出色。原创 2024-01-26 13:56:53 · 1537 阅读 · 0 评论 -
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models导读
论文提出了一种简单而广泛适用的方法——链式思维提示(chain-of-thought prompting),用于增强大型语言模型的推理能力。通过实验证明,链式思维提示能够显著提高大型语言模型在算术、常识和符号推理等任务上的表现,并且比传统的提示方法具有更强的泛化能力和更小的数据需求。研究结果表明,链式思维提示是一种有效的工具,可以扩展大型语言模型的能力范围,进一步激发了使用自然语言处理技术解决复杂问题的研究方向。原创 2024-01-26 11:40:54 · 1487 阅读 · 0 评论