+ 2. LangChain 文档的问题
+ 3. LangChain 太多概念容易混淆,过多的“辅助”函数问题
+ 4. LangChain 行为不一致并且隐藏细节问题
+ 5. LangChain 缺乏标准的可互操作数据类型问题
+ **大模型(LLMs)langchain 面**
+ **基于LLM+向量库的文档对话 经验面**
- 大模型(LLMs)参数高效微调(PEFT) 面
-
- 一、LoRA篇
- 二、QLoRA篇
- 三、AdaLoRA篇
- 四、LoRA权重是否可以合入原模型?
- 五、ChatGLM-6B LoRA后的权重多大?
- 六、LoRA 微调优点是什么?
- 七、LoRA微调方法为啥能加速训练?
- 八、如何在已有LoRA模型上继续训练?
- 1.1 什么是 LoRA?
- 1.2 LoRA 的思路是什么?
- 1.3 LoRA 的特点是什么?
- 2.1 QLoRA 的思路是怎么样的?
- 2.2 QLoRA 的特点是什么?
- 3.1 AdaLoRA 的思路是怎么样的?
- 一、为什么需要 提示学习(Prompting)?
- 二、什么是 提示学习(Prompting)?
- 三、提示学习(Prompting) 有什么优点?
- 四、提示学习(Prompting)有哪些方法,能不能稍微介绍一下它们间?
- 4.4.1 为什么需要 P-tuning v2?
- 4.4.2 P-tuning v2 思路是什么?
- 4.4.3 P-tuning v2 优点是什么?
- 4.4.4 P-tuning v2 缺点是什么?
- 4.3.1 为什么需要 P-tuning?
- 4.3.2 P-tuning 思路是什么?
- 4.3.3 P-tuning 优点是什么?
- 4.3.4 P-tuning 缺点是什么?
- 4.2.1 为什么需要 指示微调(Prompt-tuning)?
- 4.2.2 指示微调(Prompt-tuning)思路是什么?
- 4.2.3 指示微调(Prompt-tuning)优点是什么?
- 4.2.4 指示微调&