- 博客(7)
- 资源 (14)
- 收藏
- 关注
原创 基于langchain和本地大模型以及会话式检索增强生成(Conversational RAG)技术实现知识问答
本文讲述了基于langchian框架,使用本地部署的nomic-embed-text模型做嵌入检索、llama3.1做回答内容生成的知识问答系统实例。 通过对比测试使用历史聊天记录和不使用历史聊天记录(即:以往的问题和答案)两种情况,我们可以明显看出来使用历史聊天记录的优点:它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。
2024-10-09 16:41:18 445
原创 从零搭建基于langchain的本地大模型+本地向量数据库的RAG系统
这是从零开始搭建langchain本地化RAG服务(本地部署的lamma3.1+本地部署的chroma)的保姆级教程
2024-10-03 10:01:13 208
原创 使用langchain和本地部署的lamma3+chroma做RAG
在做RAG(RAG,Retrieval Augmented Generation,即:增强生成)系统时,经常会遇到数据安全、隐私保护等问题,此时使用本地部署的大模型和本地部署的矢量数据库时很必要的
2024-10-03 09:54:55 749
原创 在langchian中使用本地部署的llama3大模型
Ollama是一个工具和框架,主要用于本地部署和使用大语言模型(Large Language Models, LLMs)。它旨在帮助开发者和组织方便地在本地或私有环境中运行和交互这些模型,避免依赖外部API或云端服务,保护隐私并降低成本。langchain可以集成本地化大模型,实现智能问答等各种应用。
2024-10-03 09:45:08 254
转载 在Visual Studio Code中配置venv
相比其他环境管理工具,如conda,venv是Python内置的,轻量且容易上手,不需要额外安装和配置,特别适合一般的Python开发工作。 它对项目依赖的管理非常方便。
2024-10-03 09:35:19 54
转载 大语言模型都能做什么
与一般的AI模型相比,大模型的参数特别多(通常在10亿以上),训练时需要大规模的数据(动辄百万计,往往还需要进行大量的人工标注),可见大模型的训练成本通常比较高昂。
2024-09-19 19:47:10 47
原创 大模型的最大特色:涌现能力
涌现能力是在模型参数增加到某一临界点后突然出现的,这些能力包括但不限于语言理解能力、生成能力、逻辑推理能力等,而这种能力是小模型所不具备的。 这也是为什么chat GPT出现后让人眼前一亮:和它聊天与真人无异,不像是机器了!这主要应该归功于大模型的涌现能力。
2024-09-19 19:42:46 284
苏米团队账本 V0.51
2016-12-21
自制单选(radiobox)和多选(checkbox)控件
2014-06-07
BugTracker.Net 3.5.7 中文版
2012-06-20
在ASP.Net中通过cell-id和LAC获取位置信息
2010-12-30
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人