![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
llm-Langchain学习记录
文章平均质量分 76
llm学习记录
jonny的学习日记
好好学习 为了更好的生活而努力!!
一起学习啊!
展开
-
向量数据库相关知识(搬运学习,建议还是看原文,这个只是我自己的学习记录)
通常情况下,随机性越大的投影矩阵,其映射质量就越好。一般的哈希函数为了查找方便我们需要减少碰撞次数,但是在向量搜索中,我们的目的是为了找到相似的向量,所以可以专门设计一种哈希函数,使得哈希碰撞的概率尽可能高,并且位置越近或者越相似的向量越容易碰撞,这样相似的向量就会被映射到同一个桶中。那么为了解决搜索时可能存在的遗漏问题,可以将搜索范围动态调整,例如当 nprobe = 1 时,只搜索最近的一个聚类中心,当 nprobe = 2 时,搜索最近的两个聚类中心,根据实际业务的需求调整 nprobe 的值。原创 2024-06-20 14:01:01 · 727 阅读 · 0 评论 -
QianfanLLMEndpoint和QianfanChatEndpoint的区别
【代码】QianfanLLMEndpoint和QianfanChatEndpoint的区别。原创 2024-07-10 16:05:47 · 525 阅读 · 0 评论 -
llm学习-1(包含如何使用github的codespace):
我们一般设置 System Prompt 来对模型进行一些初始化设定,例如,我们可以在 System Prompt 中给模型设定我们希望它具备的人设如一个个人知识库助手等。在通过 System Prompt 设定好模型的人设或是初始设置后,我们可以通过 User Prompt 给出模型需要遵循的指令。具体来说,在使用 ChatGPT API 时,你可以设置两种 Prompt:一种是 System Prompt,该种 Prompt 内容会在整个会话过程中。,且相比于普通 Prompt 具有更高的重要性;原创 2024-06-27 10:37:15 · 1168 阅读 · 0 评论 -
llm学习-3(向量数据库的使用)
接着上面的常规操作加载环境变量---》获取所有路径---》加载文档---》切分文档。原创 2024-07-02 10:24:00 · 562 阅读 · 0 评论 -
llm学习—5(构建检索问答链、可视化llmdemo)
话不多说,有了前面的基础我们直接给带有注释的代码吧。原创 2024-07-03 17:30:09 · 226 阅读 · 0 评论 -
llm学习-4(llm和langchain)
langchain接大模型原创 2024-07-02 15:51:23 · 754 阅读 · 0 评论 -
llm学习-2(使用embedding和数据处理)
首先可以简单了解一下向量数据库相关知识:向量数据库相关知识(搬运学习,建议还是看原文,这个只是我自己的学习记录)-CSDN博客补充:文心千帆APIEmbedding-V1是基于百度文心大模型技术的文本表示模型,Access token为调用接口的凭证,使用Embedding-V1时应先凭API Key、Secret Key获取Access token,再通过Access token调用接口来embedding text。同时千帆大模型平台还支持bge-large-zh等embedding model。对于原创 2024-06-27 18:06:16 · 722 阅读 · 0 评论 -
Langchain-rag小demo
加载本地文本 ----> 文本拆分 ----> 匹配文本(字符匹配、语义检索) ----> 构建prompt ----> LLM生成回答。7-10步骤:将用户提问内容进行embedding 然后后向量数据库进行匹配。1-6步骤:通过embedding模型构建本地向量数据库。11-13步骤:构建prompt模板。14-15步骤:大模型输出。原创 2024-06-25 11:56:34 · 217 阅读 · 0 评论