自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2422)
  • 收藏
  • 关注

原创 LLM大模型学习文档+教程+PDF书籍+系统学习路线,一套全拿到!

LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

2025-03-28 20:04:32 701 1

原创 LangChain4j RAG 实战指南:用 Java 构建企业级智能文档问答系统

LangChain4j RAG 实战指南:用 Java 构建企业级智能文档问答系统

2026-04-22 13:49:27 352

原创 别再傻傻分不清!AI Agent 和模型微调到底有什么区别?

选错了,要么花了大价钱训练模型却发现它根本hold不住复杂流程,要么搭了个复杂的Agent架子最后发现其实是个简单识别任务。

2026-04-20 15:54:24 389

原创 大模型时代程序员如何转型入局AI大模型?

本文将从行业前景、薪资待遇、岗位需求,程序员转行大模型的优势,以及目前互联网行业的发展风向三个方面进行详细阐述。

2026-04-17 11:16:48 182

原创 Java开发者能否转型大模型?程序员的逆袭秘籍,转行不再是梦

Java开发者能否转型大模型?程序员的逆袭秘籍,转行不再是梦

2026-04-17 11:16:09 231

原创 弃用旧笔记本太可惜?20 分钟搞定 Qwen3.5 本地部署,新手也能上手

花 20 分钟,让闲置的旧笔记本重获新生,拥有专属的私人 AI 助理,不管是新手还是技术小白,都能轻松上手。赶紧拿出你的旧笔记本,跟着步骤操作,解锁 AI 新玩法吧!

2026-04-14 10:15:09 422

原创 Awesome-LLM-RAG 深度解析:RAG 技术原理与 AI Agent 实战

今天咱们就聊聊 RAG 到底是什么、为什么重要,以及怎么在 AI Agent 里用起来。

2026-04-14 10:12:39 450

原创 快手面试官:你简历做过 RAG 项目,那 RAG 主要用来解决什么问题?

知识时效性呢?私有知识覆盖呢?这两个你都没提到。而且你以为 RAG 是专门解决幻觉的?幻觉只是知识缺失的副产品,根源是模型的知识冻住了,你得从根源上讲。

2026-04-10 10:38:21 385

原创 检索排第一的未必最相关,Reranker 才是 RAG 的终极守门员

本文带你认识 Reranker(重排序器):搞懂它是什么、四种主流方案怎么选、以及如何用 BGE-Reranker 三步跑通精排。

2026-04-10 10:21:36 220

原创 Java后端寒冬来袭,程序员转型大模型才是破局关键(附教程)

凌晨一点多,手机屏幕突然亮起,是做Java后端的朋友发来的消息,字里行间满是焦虑和不甘:“刚收到公司裁员通知,名单定死了,我真没想到,连部门里干了五年的资深程序员都没保住,我这三年经验的,更没底气了。”

2026-04-08 10:21:17 402

原创 作为一个普通的程序员,到底应不应该转型AI大模型?

对于每天埋首于业务代码、调试Bug的普通程序员来说,这个风口究竟是能借力起飞的东风,还是容易迷航的漩涡?转型AI大模型,真的是破局职场困境的最优解吗?

2026-04-08 10:20:14 416

原创 大模型如何“思考”?揭秘LLM推理全过程

本文详细阐述了LLM的推理机制,包含了仅解码器型LLM的预填充(Prefill)和生成(Generation)两个阶段,这两个阶段是理解推理过程中吞吐量和整体延迟的关键。

2026-04-07 10:04:01 166

原创 从0到1开发一个 Agent(智能体)

下面以Demo中的几个典型Agent为例,详细介绍设计思路与实现方式,基于Eino框架快速落地多智能体协作系统。

2026-04-07 10:03:12 507

原创 别只当API调用侠了!一文带你深入大模型“体内”,看懂推理全流程

别只当API调用侠了!一文带你深入大模型“体内”,看懂推理全流程

2026-04-03 11:03:50 161

原创 本地 LLM 部署:硬件配置指南

OpenClaw 的火爆,进一步推动了本地部署 LLM 的需求,对于“不想交数据、不想交钱,或者不想等网络”的那群人,本地部署 LLM 永远是一个绕不开的话题。

2026-04-03 11:03:11 339

原创 RAG 正在换轨:从“多查几次“到“让系统学会记忆和判断“

把 2025 到 2026 年初这一批论文和项目放在一起看,会发现一条挺清晰的线:RAG 正在从"外挂检索"走向"动态决策",再往"长期记忆"和"端到端记忆模型"演化。

2026-04-01 10:52:32 392

原创 LangChain 概述:给大模型装上“手脚“的框架,到底怎么用?

LangChain 是一个用于构建 大语言模型(LLM)应用的开源框架,通过模块化设计将 Prompt、Model、Memory、Chain、Agent、Tool 等核心组件有机组合,使开发者能够快速构建复杂的 AI 应用。

2026-04-01 10:51:55 394

原创 选择性记忆提取,把人类遗忘机制用在了RAG上,这架构真有点东西

选择性记忆提取,把人类遗忘机制用在了RAG上,这架构真有点东西

2026-03-31 11:14:33 234

原创 显存对应大模型指南|多大显存选什么模型,OpenClaw用本地模型,一看就懂

最近后台私信、评论区经常被问到:“我的显卡适合跑哪个大模型?”“4060(8G)选Qwen3.5 9B还是27B?”“不同量化版本到底占多少显存?”

2026-03-31 11:13:56 342

原创 什么是上下文窗口?上下文越长越好?

什么是上下文窗口?上下文越长越好?

2026-03-31 11:13:21 421

原创 Prompt Engineering 提示词工程核心要点整理

Prompt Engineering 是通过精心设计输入提示来引导大语言模型生成高质量输出的技术,核心是「说清楚你要什么」。

2026-03-30 10:15:38 373

原创 LLM 模型蒸馏与微调实操指南:让大模型更轻、更专、更强

本文将深入解析模型蒸馏与微调两大核心技术,帮助大家理解原理、掌握方法、落地实践。

2026-03-30 10:15:00 447

原创 LangChain与LangGraph的区别?

LangChain 和 LangGraph 都是 LangChain 生态系统中用于构建大型语言模型(LLM)应用的开源框架,但它们在设计理念和适用场景上有着本质的区别。

2026-03-30 10:14:22 505

原创 LLM:主流大模型架构概览 - 对比特性与规模

近年来,参数量突破 1 T 规模的 LLM 如 Ling 2.5 1T、GLM‑5 744B 频繁出现。模型规模的指数增长使得 架构特征(层数、稀疏化、混合专家等) 成为选择模型的关键维度,却缺乏统

2026-03-29 09:45:00 220

原创 RAG不香了,ASMR把记忆准确率干到了99%

本文介绍的论文提出了一种名为ASMR(Agentic Search and Memory Retrieval)的新技术,在LongMemEval基准上实现了近99%的准确率,标志着AI记忆系统的重要进展。

2026-03-28 10:26:37 195

原创 Qwen3.5-9B 初探

本地运行大模型,可以使用 Ollama、LM Studio、MLX 框架。其中 Ollama 底层使用了 llama.cpp,完美适配 Mac 的统一内存和 CPU/GPU 混合加速,最终选择了 Ollama。

2026-03-28 10:25:56 293

原创 Ollama:本地大模型部署神器,5 分钟跑起你的私人 AI

如果你不希望将数据上传到云端,担心隐私安全问题,或者害怕哪天突然收到一张失控的“天价” API 账单,那么在本地部署大模型或许是更安心的选择。

2026-03-28 10:25:13 610

原创 大模型告别“金鱼记忆“:2张显卡记住1亿Token,4B小模型干翻235B大模型

现在的 AI 大模型,其实也差不多——只不过它的"7秒"大概是 128K 到 1M 个 token(几千到几万字)。超过这个长度,它就会"失忆",开始胡言乱语。

2026-03-27 15:09:17 437

原创 大模型“预训练”是怎么回事

经常在想,大模型是怎么学会“理解和生成语言”的。仔细看,它的训练过程其实很有规律,简单讲可以拆解成几个步骤。

2026-03-27 15:07:30 233

原创 学AI大模型需要什么前提?普通人该怎么学?(附免费学习教程)

学AI大模型需要什么前提?普通人该怎么学?(附免费学习教程)

2026-03-26 10:08:23 237

原创 文科生被AI大厂疯抢,月薪3万起,这条热搜,你真的看懂了吗?

AI浪潮直接催生出一个叫“首席讲故事官”的新职业,年薪30万美金,换算下来超过200万人民币。这帮人干的事,就是用通俗易懂的故事,让大众接受一家公司的产品——说白了,不就是资深媒体人的老本行吗?

2026-03-26 10:07:25 272

原创 普通Java程序员转行AI?建议别卷算法岗,AI应用才是王道

前两天有个朋友私信我,说他是二本软件工程毕业,做了快两年Java开发加运维,一直待在外包,工资不高,现在特别想转AI,但觉得自己学历普通,是不是根本没机会?

2026-03-26 10:06:17 328

原创 AI企业级知识库问答系统实战:从架构到部署的完整指南

基于大语言模型和检索增强生成技术的开源知识库AI问答系统ChatWiki,就遵循了上述核心架构的设计思路,支持本地部署和云端调用,适合企业私有化部署。

2026-03-25 15:39:12 412

原创 AI大模型高效学习指南:从入门到精通的系统性方法论

本文提供一套经过验证的"3阶9步"学习框架,帮助开发者用最小成本掌握大模型核心技术。

2026-03-25 15:38:30 371

原创 AI大模型调优工程:突破显存墙与灾难性遗忘的双重挑战

本文提出动态混合稀疏微调框架(DySparse),通过结构感知参数选择、梯度稀疏化压缩、神经路径蒸馏三大核心技术,在Llama3-405B模型实现调显存占用下降89%(8xA100可微调)、多任务遗忘率低于4.7%,推理延迟仅增加0.3ms。

2026-03-25 15:37:39 389

原创 大模型的”分而治之”智慧:混合专家模型(MoE)技术解析

MoE 并非什么新鲜概念,早在 1991 年就有人提出类似思路。但直到近几年,这套架构才真正在大模型领域大放异彩。

2026-03-24 14:22:39 257

原创 字节大模型一面:在构建一个复杂的 Agent 时,你认为最主要的挑战是什么?

一个好的回答策略是:挑3-4个你认为最核心的挑战,每个挑战不仅要说"是什么",更要说"为什么难"和"怎么缓解"。

2026-03-24 14:22:05 404

原创 Qwen3.5 多卡微调全流程:从环境安装到微调训练以及部署上线

Qwen3.5 多卡微调全流程:从环境安装到微调训练以及部署上线

2026-03-24 14:18:22 564

原创 大语言模型微调技术:从“全参数“到“高效微调“的进化之路

微调(Fine-tuning) 就是这样一个过程——在预训练好的大模型基础上,用特定领域的数据进行"再培训",让模型更好地适应具体任务。

2026-03-23 10:09:26 335

原创 不止是调用大模型:LangChain 如何构建真正的 Agent?

大模型很强,但它本质上只是“会说话”。当我们希望模型查天气、写文件、调用接口、跨步骤决策时,就需要一个能够编排模型与工具的框架

2026-03-23 10:08:42 395

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除