LARGE LANGUAGE MODELS AS OPTIMIZERS

515 篇文章 3 订阅

已下架不支持订阅

本文介绍了将大型语言模型(LLM)作为优化器的OPRO方法,通过自然语言描述优化任务。在多个示例中,如线性回归和旅行推销员问题,OPRO展示出逐步改进解决方案的能力。在提示优化实验中,OPRO生成的提示在GSM8K和Big Bench Hard任务上分别优于人类设计的提示8%和50%。未来的研究将关注降低初始化敏感性、平衡探索与开发,以及如何利用错误案例来改进指令生成。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《LARGE LANGUAGE MODELS AS OPTIMIZERS》的翻译。

摘要

优化无处不在。虽然基于导数的算法是解决各种问题的强大工具,但梯度的缺乏给许多现实世界的应用带来了挑战。在这项工作中,我们提出了PROmpting优化(OPRO),这是一种利用大型语言模型(LLM)作为优化器的简单有效的方法,其中优化任务用自然语言描述。在每个优化步骤中,LLM都会从包含先前生成的解决方案及其值的提示中生成新的解决方案,然后对新解决方案进行评估,并将其添加到下一个优化步骤的提示中。我们首先展示了关于线性回归和旅行推销员问题的OPRO,然后继续进行提示优化,目标是找到最大限度提高任务准确性的指令。通过各种LLM,我们证明了OPRO优化的最佳提示在GSM8K上比人类设计的提示高出8%,在Big Bench Hard任务上高出50%。

1 引言

2 OPRO:LLM作为优化器

3 激励性例子:数学优化

4 应用:提示优化

5 提示优化实验

6 相关工

已下架不支持订阅

优化器(optimizer)是机器学习中用于最小化损失函数的算法。在深度学习中,常见的优化器是对梯度下降算法的优化。常用的优化器包括GradientDescentOptimizer、AdagradOptimizer、MomentumOptimizer、AdamOptimizer等\[1\]。在TensorFlow中,可以通过设置优化器的参数来自定义优化器\[2\]。在PyTorch中,可以使用AdamW优化器来进行模型参数的优化\[3\]。不同的优化器在不同的曲面、鞍点和等高线上的表现也有所差异\[3.1\]。 #### 引用[.reference_title] - *1* [【TensorFlow 入门】2、优化器函数 Optimizer](https://blog.csdn.net/jiaoyangwm/article/details/79242237)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [新手入门深度学习 | 3-6:优化器optimizers](https://blog.csdn.net/qq_38251616/article/details/124097632)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [【机器学习】详解 Optimizers](https://blog.csdn.net/qq_39478403/article/details/119061124)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值