- 博客(49)
- 资源 (1)
- 收藏
- 关注
原创 Transformer 原理与实现(二):从代码看透 Transformer
通过实际的 PyTorch 代码,逐行剖析 Transformer 的实现细节,让理论落地,真正看透 Transformer 是如何工作的。
2026-04-02 23:01:13
879
原创 【由浅入深探究langchain】第二十二集-多智能体Supervisor Agent(下)
本文介绍了如何构建SupervisorAgent(主管智能体)来协调处理跨领域的复合任务。
2026-03-31 12:00:00
448
原创 【由浅入深探究langchain】第二十一集-多智能体Supervisor Agent(上)
本文介绍了多智能体系统的优势,通过构建专业化的执行者Agent解决单一Agent面临的工具选择困难和上下文迷失问题。
2026-03-31 07:30:00
626
原创 【由浅入深探究langchain】第二十集-SQL Agent+Human-in-the-loop
本文介绍了在SQL Agent中实现Human-in-the-loop(HITL)安全机制的方法。
2026-03-30 15:11:03
486
原创 【由浅入深探究langchain】第十八集-别让 AI 乱跑之Human-in-the-loop (审批模式) 深度实战
本文介绍了Human-in-the-loop中间件技术
2026-03-28 13:00:00
705
原创 【由浅入深探究langchain】第十七集-构建你的首个 RAG 知识库助手(从文档索引到检索增强生成)
本文介绍了RAG(检索增强生成)技术如何解决大语言模型的知识局限性问题。通过DOTA2游戏更新案例,详细拆解了RAG的两个核心流程:索引阶段将网页数据分割、向量化并存入本地数据库;检索生成阶段则通过智能体动态调用检索工具获取最新信息。
2026-03-28 08:00:00
408
原创 【由浅入深探究langchain】第十五集-Agent 结构化输出、运行时参数、系统提示词综合应用开发
本文介绍了LangChain框架中强约束型Agent的开发模式,该模式整合了三大核心特性:结构化输出、运行时上下文和多轮对话持久化。
2026-03-27 07:45:00
414
原创 【由浅入深探究langchain】第十四集-langgraph 状态管理器 checkpointer 详细解析
本文深入解析了LangGraph框架中记忆机制的核心原理。
2026-03-26 12:45:00
1350
原创 【由浅入深探究langchain】第十三集-PostgresSaver实现短期记忆持久化
本文介绍了如何使用PostgresSaver实现AI对话Agent的持久化记忆存储。
2026-03-26 08:00:00
441
原创 【由浅入深探究langchain】第十二集-InMemorySaver实现多会话记忆管理
本文介绍了如何利用LangGraph的InMemorySaver机制实现Agent的自动记忆管理。
2026-03-25 12:45:00
262
原创 【由浅入深探究langchain】第十一集-Agent短期记忆管理
本文探讨了AIAgent的短期记忆缺失问题及解决方案。通过两组实验对比,揭示了LLM无状态特性导致Agent在多轮对话中"失忆的原因。
2026-03-25 07:45:00
191
原创 【由浅入深探究langchain】第十集-Agent的流式输出
本文探讨了在LangChain/LangGraph中构建AIAgent时的两种流式输出模式:values和messages。
2026-03-24 13:45:00
792
原创 【由浅入深探究langchain】第九集-简单的Agent工具调用
本文介绍了如何通过自定义工具(Tools)扩展LangChain Agent的功能。
2026-03-24 08:00:00
361
原创 【由浅入深探究langchain】第八集-开发你的第一个 LangChain Agent (基于 LangGraph)
本文介绍了使用LangChain和在线大模型开发智能体(Agent)的方法。
2026-03-23 16:00:00
170
原创 【由浅入深探究langchain】第六集-chromadb管理小工具
这是一个基于ChromaDB开发的向量数据管理工具脚本,主要提供查看和清理本地向量数据库的功能。
2026-03-22 11:00:00
53
原创 【由浅入深探究langchain】第五集-语义搜索-RAG 检索
使用 LangChain 框架结合 Ollama(本地大模型运行环境)和 Chroma(向量数据库)来实现一个完整的**语义搜索(RAG 检索部分)**流程。
2026-03-22 09:45:00
529
原创 【由浅入深探究langchain】第四集-(RAG)语义搜索-数据入库
本文介绍了使用LangChain实现RAG架构中"数据入库"部分的实践过程。
2026-03-21 09:30:00
382
原创 【由浅入深探究langchain】第一集-浅读官方文档
本文对比了LangChain和LangGraph两个框架的核心功能与定位差异。并带着读者一起浅看了一下langchain官网的doc的内容。
2026-03-18 16:00:00
374
原创 极简部署指南:基于 Docker 部署 nanobot
本文介绍了在Windows11环境下使用Docker部署NanoBot AI助手的过程。主要内容包括:1)环境准备,需安装Docker Desktop并获取Kimi API Key;2)项目初始化,通过GitHub下载NanoBot并执行官方引导命令;3)核心配置,编辑config.json文件设置AI模型参数;4)容器化部署,启动Gateway服务;5)维护指令,包括交互对话、状态检查和日志监控等功能。所有工作目录挂载到D:\nanobot-lab实现数据持久化,通过Docker命令实现服务管理和交互操作
2026-03-03 15:28:36
763
原创 FunASR人工智能语音转写服务本地部署测试
本文介绍了在Windows11系统下使用Docker部署FunASR语音识别服务的完整流程。首先通过Docker拉取FunASR镜像并创建模型存储目录,然后启动容器并映射端口和目录。进入运行环境后,执行服务启动命令,配置包括VAD、ASR、标点预测等模型路径。服务启动后自动下载所需模型并监听10095端口。最后下载官方Demo页面,修改服务地址即可测试语音转文字功能。整个流程涵盖了从环境准备到服务测试的关键步骤,为开发者提供了完整的FunASR部署指南。
2025-08-31 17:35:59
795
原创 向量数据库Milvus在windows环境下的安装
嵌入式 etcd 与 Milvus 安装在同一个容器中,服务端口为。已管理员身份运行powershell,进入刚刚新建的文件夹。可以使用以下命令管理 Milvus 容器和存储的数据。通过网盘分享的文件:milvus_v2.5.5.tar。查看docker ps,milvus已经在运行了。因为dockerhub被墙的原因,可能会报错如下。Milvus 数据卷映射到当前文件夹中的。其配置文件被映射到当前文件夹中的。,直接下载执行下面的操作就可以了。在网络允许的机器上下载镜像并导出。的 docker 容器已在。
2025-06-10 11:35:26
1431
原创 使用LLaMA-Factory微调ollama中的大模型(四)------ollama不支持的架构,例如Qwen3 系列,如何训练好制作成ollama识别的格式
但是发现一个问题。
2025-06-10 11:35:11
2276
原创 【Springboot+LangChain4j】实现对话记忆的持久化功能
前提:前文实现了对话的记忆功能以及隔离功能,详见但是将对话记忆保存在内存中肯定是不行的,多了就会造成OOM异常,最好还是存入数据库或者redis中,本文在之前代码基础上,增加持久化对话记忆的功能。
2025-06-09 08:45:00
912
原创 使用LLaMA-Factory微调ollama中的大模型(三)------window下通过WSL安装ubuntu,运行LLaMA-Factory
系统在资源管理、多线程处理和内存分配方面表现优异,能够更好地支持大规模计算任务。是开源系统,开发者可以深度定制内核、驱动和工具链,以满足特定硬件和软件栈的需求。在服务器环境中的表现更为成熟,能够避免因系统更新或蓝屏等问题导致的训练中断。系统以其高稳定性和低故障率著称,适合长时间运行的大模型训练任务。)更适合处理大模型训练中常见的海量小文件,例如数据集和检查点。输入wsl --install -d Ubuntu-22.04。上支持更全面,社区提供的解决方案也更丰富。上表现更稳定、性能更高。
2025-06-09 08:00:00
983
原创 【Springboot+LangChain4j】实现对话隔离功能
前提:前文实现了对话的记忆功能,详见但是如果多个用户使用,还需要将各自用户的对话进行隔离开,故引入LangChain4j的memoryId,用来隔离互相之间的对话。
2025-05-30 04:45:00
717
原创 【Springboot+LangChain4j】实现多轮对话,即记忆对话功能
onPartialResponse(sink::next) // 每接收到一个 token,就推送到前端。ChatMemory:聊天上下文记忆,创建一个聊天记忆对象,记住最近的 20 条消息,消息数是可以根据自己需求改的。在实现了调用Ollama接口实现对话功能后,发现每次对话都是一个新的对话环境,不能针对一个问题多轮的询问下去。定义了一个AI助手接口,LangChain4j 会基于这个接口生成实现类,一个非流式,一个流式。:设置用于普通对话的模型。:设置用于流式对话的模型。:生成最终的实现类并返回。
2025-05-27 09:58:26
1509
原创 【Springboot+LangChain4j】Springboot项目集成LangChain4j(下)
前置条件:根据上篇文章完成springboot初步集成LangChain4j但是接口方法中,关于大模型的配置都是写死的,不符合编码的合理性,本片目的将参数内容配置化。
2025-05-27 09:24:35
1039
原创 【Springboot+LangChain4j】根据LangChain4j官方文档,三分钟完成Springboot项目集成LangChain4j(上)
springboot版本3.4.6,已安装ollama并下好大模型参考文档:LangChain4j官网。
2025-05-25 17:47:38
886
原创 使用LLaMA-Factory微调ollama中的大模型(二)------使用数据集微调大模型
前提:LLaMA-Factory已安装完毕并运行成功,详见上一篇博客。
2025-05-24 17:18:12
1359
原创 使用LLaMA-Factory微调ollama中的大模型(一)------家用电脑安装LLaMA-Factory工具
下载完了直接扔D盘,执行命令pip install D:\torch-2.6.0+cu126-cp310-cp310-win_amd64.whl,就看到在装了,装完这个就能删掉了,如果网络环境访问官方 PyPI 很慢或不稳定(尤其在中国大陆常见),这里也会失败,可以切换到国内的镜像站。执行命令 pip install -e ".[torch,metrics]" ,使用隔离环境,不用--no-build-isolation,防止出现问题。说明我NVIDIA 显卡已安装驱动,支持的。查看自己电脑显卡信息。
2025-05-22 06:00:00
908
原创 根据Spring官方文档,三分钟完成Springboot项目集成Spring AI
根据spring ai的官网文档,完成springboot项目与spring ai的接入
2025-05-21 14:48:05
706
原创 五分钟本地部署大模型
前提:个人PC机,配置:CPU:i5-13600KF 显卡:RTX3080 内存:32GB。默认大模型下载在C盘,这里改到D盘,在系统变量中增加如下,确保文件夹存在;找到自己想要的,如图我用的qwen3:8b,复制run命令;在cmd界面中,运行复制到的命令,等待下载完成即可。,点击下载,完成后傻瓜式安装即可;如图这里就已经可以使用了。点击右上角Models。1.安装ollama。
2025-05-19 23:48:32
378
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅