让LLM自己提出更适合自己理解的问题。
发现了,GPT自我改进模型的潜力。
为了更充分利用大模型的复述能力。提出了两步RAR
用更好的LLM复述,让更小的模型回答。
vicuna-13b-v1.5:基于llama2的模型
对于较小的模型,在复述问题时,会产生扰动,与人的意图差距大。
复述后的问题是可迁移的。
让大语言模型自主复述,打破与人类对话的壁垒 Rephrase and Respond: Let Large Language Models Ask Better Questions for Thems
最新推荐文章于 2024-10-31 17:05:07 发布