AI编程实战
文章平均质量分 68
火云牌神
20年以上工作经验,担当过Linux操作系统、嵌入式软件、游戏开发、企业级应用开发等技术工作。
擅长系统性逻辑思维,长于解决复杂的系统性软件问题,编写比较复杂稳定的底层软件系统。
最近几年专注于大数据和人工智能技术领域的研究。
展开
-
基于langchain和本地大模型以及会话式检索增强生成(Conversational RAG)技术实现知识问答
本文讲述了基于langchian框架,使用本地部署的nomic-embed-text模型做嵌入检索、llama3.1做回答内容生成的知识问答系统实例。 通过对比测试使用历史聊天记录和不使用历史聊天记录(即:以往的问题和答案)两种情况,我们可以明显看出来使用历史聊天记录的优点:它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。原创 2024-10-09 16:41:18 · 445 阅读 · 0 评论 -
从零搭建基于langchain的本地大模型+本地向量数据库的RAG系统
这是从零开始搭建langchain本地化RAG服务(本地部署的lamma3.1+本地部署的chroma)的保姆级教程原创 2024-10-03 10:01:13 · 208 阅读 · 0 评论 -
使用langchain和本地部署的lamma3+chroma做RAG
在做RAG(RAG,Retrieval Augmented Generation,即:增强生成)系统时,经常会遇到数据安全、隐私保护等问题,此时使用本地部署的大模型和本地部署的矢量数据库时很必要的原创 2024-10-03 09:54:55 · 751 阅读 · 0 评论 -
在langchian中使用本地部署的llama3大模型
Ollama是一个工具和框架,主要用于本地部署和使用大语言模型(Large Language Models, LLMs)。它旨在帮助开发者和组织方便地在本地或私有环境中运行和交互这些模型,避免依赖外部API或云端服务,保护隐私并降低成本。langchain可以集成本地化大模型,实现智能问答等各种应用。原创 2024-10-03 09:45:08 · 254 阅读 · 0 评论