- 博客(15)
- 收藏
- 关注
原创 attention_mask,pad_token_id报错
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.Setting `pad_token_id` to `eos_token_id`:151643 for open-end generation.
2024-03-01 10:01:50 1074 1
原创 vscode如何不覆盖前一个窗口
网上讲的设置enablePreview取消勾选这些方法我试过都无效,后来发现是再setting.json中关于"workbench.editor.showTabs"的设置不对。1、如果知道地址打开C:/Users/Administrator/AppData/Roaming/Code/User/settings.json,3、找到“workbench.editor.showTabs”本来是single,无论设置啥别的都会覆盖窗口,改为multiple就解决了!
2023-12-21 11:58:43 541
翻译 LM提示推理Prompting Reasoning--研究综述
推理作为复杂问题解决的基本能力,可以为各种现实世界的应用程序提供后端支持,如医疗诊断、谈判等。本文对语言模型提示推理的前沿研究进行了全面的综述。我们通过比较和总结介绍研究作品,并提供系统的资源来帮助初学者。我们还讨论了出现这种推理能力的潜在原因,并强调了未来的研究方向。如上,语言模型的prompt可以是上下文 或 单纯提示让我们一步一步思考 或 知识库!都可以增强模型的推理能力。
2023-08-17 14:17:42 86 1
翻译 LTM提示使大语言模型中的复杂推理成为可能
为LLM提出了一种新颖的提示策略,即最少到最多提示( least-to-most prompting)。这个策略的关键思想是把一个复杂的问题分解成一系列更简单的子问题,然后依次解决它们。以前解决的子问题的答案有助于解决每个子问题。我们在与符号操作、组合泛化和数学推理相关的任务上的实验结果表明,最少到最多的提示能够泛化到比提示中看到的更难的问题。
2023-04-26 17:02:20 1159 1
翻译 Inferring Implicit Relations in Complex Questions with Language Models(用LM推断复杂问题中的隐含关系)
隐含推理问题的挑战并不仅仅源于需要计划一个推理策略,而是需要在进行推理的同时检索和推理相关信息
2023-04-13 18:54:21 243 1
翻译 Binding Language Models in Symbolic Languages(GPT-3无需训练的神经符号框架)
调用GPT3的API,无需训练的神经符号框架,有效实现特定场景答案生成。
2023-03-30 17:20:26 472
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人