自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2416)
  • 收藏
  • 关注

原创 LLM大模型学习文档+教程+PDF书籍+系统学习路线,一套全拿到!

LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

2025-03-28 20:04:32 692 1

原创 快手面试官:你简历做过 RAG 项目,那 RAG 主要用来解决什么问题?

知识时效性呢?私有知识覆盖呢?这两个你都没提到。而且你以为 RAG 是专门解决幻觉的?幻觉只是知识缺失的副产品,根源是模型的知识冻住了,你得从根源上讲。

2026-04-10 10:38:21 233

原创 检索排第一的未必最相关,Reranker 才是 RAG 的终极守门员

本文带你认识 Reranker(重排序器):搞懂它是什么、四种主流方案怎么选、以及如何用 BGE-Reranker 三步跑通精排。

2026-04-10 10:21:36 182

原创 Java后端寒冬来袭,程序员转型大模型才是破局关键(附教程)

凌晨一点多,手机屏幕突然亮起,是做Java后端的朋友发来的消息,字里行间满是焦虑和不甘:“刚收到公司裁员通知,名单定死了,我真没想到,连部门里干了五年的资深程序员都没保住,我这三年经验的,更没底气了。”

2026-04-08 10:21:17 333

原创 作为一个普通的程序员,到底应不应该转型AI大模型?

对于每天埋首于业务代码、调试Bug的普通程序员来说,这个风口究竟是能借力起飞的东风,还是容易迷航的漩涡?转型AI大模型,真的是破局职场困境的最优解吗?

2026-04-08 10:20:14 373

原创 大模型如何“思考”?揭秘LLM推理全过程

本文详细阐述了LLM的推理机制,包含了仅解码器型LLM的预填充(Prefill)和生成(Generation)两个阶段,这两个阶段是理解推理过程中吞吐量和整体延迟的关键。

2026-04-07 10:04:01 143

原创 从0到1开发一个 Agent(智能体)

下面以Demo中的几个典型Agent为例,详细介绍设计思路与实现方式,基于Eino框架快速落地多智能体协作系统。

2026-04-07 10:03:12 228

原创 别只当API调用侠了!一文带你深入大模型“体内”,看懂推理全流程

别只当API调用侠了!一文带你深入大模型“体内”,看懂推理全流程

2026-04-03 11:03:50 147

原创 本地 LLM 部署:硬件配置指南

OpenClaw 的火爆,进一步推动了本地部署 LLM 的需求,对于“不想交数据、不想交钱,或者不想等网络”的那群人,本地部署 LLM 永远是一个绕不开的话题。

2026-04-03 11:03:11 242

原创 RAG 正在换轨:从“多查几次“到“让系统学会记忆和判断“

把 2025 到 2026 年初这一批论文和项目放在一起看,会发现一条挺清晰的线:RAG 正在从"外挂检索"走向"动态决策",再往"长期记忆"和"端到端记忆模型"演化。

2026-04-01 10:52:32 372

原创 LangChain 概述:给大模型装上“手脚“的框架,到底怎么用?

LangChain 是一个用于构建 大语言模型(LLM)应用的开源框架,通过模块化设计将 Prompt、Model、Memory、Chain、Agent、Tool 等核心组件有机组合,使开发者能够快速构建复杂的 AI 应用。

2026-04-01 10:51:55 369

原创 选择性记忆提取,把人类遗忘机制用在了RAG上,这架构真有点东西

选择性记忆提取,把人类遗忘机制用在了RAG上,这架构真有点东西

2026-03-31 11:14:33 217

原创 显存对应大模型指南|多大显存选什么模型,OpenClaw用本地模型,一看就懂

最近后台私信、评论区经常被问到:“我的显卡适合跑哪个大模型?”“4060(8G)选Qwen3.5 9B还是27B?”“不同量化版本到底占多少显存?”

2026-03-31 11:13:56 192

原创 什么是上下文窗口?上下文越长越好?

什么是上下文窗口?上下文越长越好?

2026-03-31 11:13:21 357

原创 Prompt Engineering 提示词工程核心要点整理

Prompt Engineering 是通过精心设计输入提示来引导大语言模型生成高质量输出的技术,核心是「说清楚你要什么」。

2026-03-30 10:15:38 345

原创 LLM 模型蒸馏与微调实操指南:让大模型更轻、更专、更强

本文将深入解析模型蒸馏与微调两大核心技术,帮助大家理解原理、掌握方法、落地实践。

2026-03-30 10:15:00 391

原创 LangChain与LangGraph的区别?

LangChain 和 LangGraph 都是 LangChain 生态系统中用于构建大型语言模型(LLM)应用的开源框架,但它们在设计理念和适用场景上有着本质的区别。

2026-03-30 10:14:22 418

原创 LLM:主流大模型架构概览 - 对比特性与规模

近年来,参数量突破 1 T 规模的 LLM 如 Ling 2.5 1T、GLM‑5 744B 频繁出现。模型规模的指数增长使得 架构特征(层数、稀疏化、混合专家等) 成为选择模型的关键维度,却缺乏统

2026-03-29 09:45:00 212

原创 RAG不香了,ASMR把记忆准确率干到了99%

本文介绍的论文提出了一种名为ASMR(Agentic Search and Memory Retrieval)的新技术,在LongMemEval基准上实现了近99%的准确率,标志着AI记忆系统的重要进展。

2026-03-28 10:26:37 179

原创 Qwen3.5-9B 初探

本地运行大模型,可以使用 Ollama、LM Studio、MLX 框架。其中 Ollama 底层使用了 llama.cpp,完美适配 Mac 的统一内存和 CPU/GPU 混合加速,最终选择了 Ollama。

2026-03-28 10:25:56 265

原创 Ollama:本地大模型部署神器,5 分钟跑起你的私人 AI

如果你不希望将数据上传到云端,担心隐私安全问题,或者害怕哪天突然收到一张失控的“天价” API 账单,那么在本地部署大模型或许是更安心的选择。

2026-03-28 10:25:13 517

原创 大模型告别“金鱼记忆“:2张显卡记住1亿Token,4B小模型干翻235B大模型

现在的 AI 大模型,其实也差不多——只不过它的"7秒"大概是 128K 到 1M 个 token(几千到几万字)。超过这个长度,它就会"失忆",开始胡言乱语。

2026-03-27 15:09:17 414

原创 大模型“预训练”是怎么回事

经常在想,大模型是怎么学会“理解和生成语言”的。仔细看,它的训练过程其实很有规律,简单讲可以拆解成几个步骤。

2026-03-27 15:07:30 225

原创 学AI大模型需要什么前提?普通人该怎么学?(附免费学习教程)

学AI大模型需要什么前提?普通人该怎么学?(附免费学习教程)

2026-03-26 10:08:23 234

原创 文科生被AI大厂疯抢,月薪3万起,这条热搜,你真的看懂了吗?

AI浪潮直接催生出一个叫“首席讲故事官”的新职业,年薪30万美金,换算下来超过200万人民币。这帮人干的事,就是用通俗易懂的故事,让大众接受一家公司的产品——说白了,不就是资深媒体人的老本行吗?

2026-03-26 10:07:25 239

原创 普通Java程序员转行AI?建议别卷算法岗,AI应用才是王道

前两天有个朋友私信我,说他是二本软件工程毕业,做了快两年Java开发加运维,一直待在外包,工资不高,现在特别想转AI,但觉得自己学历普通,是不是根本没机会?

2026-03-26 10:06:17 316

原创 AI企业级知识库问答系统实战:从架构到部署的完整指南

基于大语言模型和检索增强生成技术的开源知识库AI问答系统ChatWiki,就遵循了上述核心架构的设计思路,支持本地部署和云端调用,适合企业私有化部署。

2026-03-25 15:39:12 377

原创 AI大模型高效学习指南:从入门到精通的系统性方法论

本文提供一套经过验证的"3阶9步"学习框架,帮助开发者用最小成本掌握大模型核心技术。

2026-03-25 15:38:30 361

原创 AI大模型调优工程:突破显存墙与灾难性遗忘的双重挑战

本文提出动态混合稀疏微调框架(DySparse),通过结构感知参数选择、梯度稀疏化压缩、神经路径蒸馏三大核心技术,在Llama3-405B模型实现调显存占用下降89%(8xA100可微调)、多任务遗忘率低于4.7%,推理延迟仅增加0.3ms。

2026-03-25 15:37:39 383

原创 大模型的”分而治之”智慧:混合专家模型(MoE)技术解析

MoE 并非什么新鲜概念,早在 1991 年就有人提出类似思路。但直到近几年,这套架构才真正在大模型领域大放异彩。

2026-03-24 14:22:39 232

原创 字节大模型一面:在构建一个复杂的 Agent 时,你认为最主要的挑战是什么?

一个好的回答策略是:挑3-4个你认为最核心的挑战,每个挑战不仅要说"是什么",更要说"为什么难"和"怎么缓解"。

2026-03-24 14:22:05 398

原创 Qwen3.5 多卡微调全流程:从环境安装到微调训练以及部署上线

Qwen3.5 多卡微调全流程:从环境安装到微调训练以及部署上线

2026-03-24 14:18:22 488

原创 大语言模型微调技术:从“全参数“到“高效微调“的进化之路

微调(Fine-tuning) 就是这样一个过程——在预训练好的大模型基础上,用特定领域的数据进行"再培训",让模型更好地适应具体任务。

2026-03-23 10:09:26 322

原创 不止是调用大模型:LangChain 如何构建真正的 Agent?

大模型很强,但它本质上只是“会说话”。当我们希望模型查天气、写文件、调用接口、跨步骤决策时,就需要一个能够编排模型与工具的框架

2026-03-23 10:08:42 391

原创 让大模型读懂你的私有文档:一文讲透 RAG 检索增强生成与Agent智能体落地

RAG,即Retrieval Augmented Generation,检索增强生成,被誉为当前大模型落地的“黄金架构”。它的核心逻辑非常简单却高效:先检索私有文档,后生成。

2026-03-23 10:08:05 362

原创 RAG 痛点全解决:不靠向量、不靠 Embedding,准确率 98.7%

本文将详细拆解 PageIndex 的工作原理、为何它在结构化文档场景中表现更优,以及如何动手搭建基于 PageIndex 的问答机器人。

2026-03-23 10:07:26 391

原创 京东算法岗(大模型方向),给了白菜价。。。

针对新人如何快速入门算法岗、如何准备面试攻略、面试常考点、大模型项目落地经验分享等热门话题进行了深入的讨论。

2026-03-22 10:30:00 363

原创 后端转Agent开发. 我的心得体会

从11月份开始学习后端技术栈, 做了外卖和点评之后就开始投递. 一个月来投了800多份只有两个面试.

2026-03-22 08:45:00 367

原创 从”问答机”到”数字员工”:AI Agent架构模式的深度拆解与选型指南

全文的核心内容已经交付完毕。我们从”Agent是什么”讲到”四大模块怎么工作”,再深入四种主流架构模式(ReAct、Plan-and-Solve、Multi-Agent、Reflection)的原理与局限,最后给出这套选型框架。

2026-03-22 07:15:00 381

原创 构建有记忆的硅基大脑:AI Agent 记忆方案的理论溯源与工程实践

未来的开发者,将从缝补外部碎片的繁琐工程中解放出来,把真正的精力聚焦于如何塑造 AI 的认知对齐与心智成长。这才是赋予 Agent 真正“灵魂”的终极之路。

2026-03-21 11:21:34 428

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除