- 博客(2416)
- 收藏
- 关注
原创 LLM大模型学习文档+教程+PDF书籍+系统学习路线,一套全拿到!
LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。
2025-03-28 20:04:32
692
1
原创 快手面试官:你简历做过 RAG 项目,那 RAG 主要用来解决什么问题?
知识时效性呢?私有知识覆盖呢?这两个你都没提到。而且你以为 RAG 是专门解决幻觉的?幻觉只是知识缺失的副产品,根源是模型的知识冻住了,你得从根源上讲。
2026-04-10 10:38:21
233
原创 检索排第一的未必最相关,Reranker 才是 RAG 的终极守门员
本文带你认识 Reranker(重排序器):搞懂它是什么、四种主流方案怎么选、以及如何用 BGE-Reranker 三步跑通精排。
2026-04-10 10:21:36
182
原创 Java后端寒冬来袭,程序员转型大模型才是破局关键(附教程)
凌晨一点多,手机屏幕突然亮起,是做Java后端的朋友发来的消息,字里行间满是焦虑和不甘:“刚收到公司裁员通知,名单定死了,我真没想到,连部门里干了五年的资深程序员都没保住,我这三年经验的,更没底气了。”
2026-04-08 10:21:17
333
原创 作为一个普通的程序员,到底应不应该转型AI大模型?
对于每天埋首于业务代码、调试Bug的普通程序员来说,这个风口究竟是能借力起飞的东风,还是容易迷航的漩涡?转型AI大模型,真的是破局职场困境的最优解吗?
2026-04-08 10:20:14
373
原创 大模型如何“思考”?揭秘LLM推理全过程
本文详细阐述了LLM的推理机制,包含了仅解码器型LLM的预填充(Prefill)和生成(Generation)两个阶段,这两个阶段是理解推理过程中吞吐量和整体延迟的关键。
2026-04-07 10:04:01
143
原创 从0到1开发一个 Agent(智能体)
下面以Demo中的几个典型Agent为例,详细介绍设计思路与实现方式,基于Eino框架快速落地多智能体协作系统。
2026-04-07 10:03:12
228
原创 本地 LLM 部署:硬件配置指南
OpenClaw 的火爆,进一步推动了本地部署 LLM 的需求,对于“不想交数据、不想交钱,或者不想等网络”的那群人,本地部署 LLM 永远是一个绕不开的话题。
2026-04-03 11:03:11
242
原创 RAG 正在换轨:从“多查几次“到“让系统学会记忆和判断“
把 2025 到 2026 年初这一批论文和项目放在一起看,会发现一条挺清晰的线:RAG 正在从"外挂检索"走向"动态决策",再往"长期记忆"和"端到端记忆模型"演化。
2026-04-01 10:52:32
372
原创 LangChain 概述:给大模型装上“手脚“的框架,到底怎么用?
LangChain 是一个用于构建 大语言模型(LLM)应用的开源框架,通过模块化设计将 Prompt、Model、Memory、Chain、Agent、Tool 等核心组件有机组合,使开发者能够快速构建复杂的 AI 应用。
2026-04-01 10:51:55
369
原创 显存对应大模型指南|多大显存选什么模型,OpenClaw用本地模型,一看就懂
最近后台私信、评论区经常被问到:“我的显卡适合跑哪个大模型?”“4060(8G)选Qwen3.5 9B还是27B?”“不同量化版本到底占多少显存?”
2026-03-31 11:13:56
192
原创 Prompt Engineering 提示词工程核心要点整理
Prompt Engineering 是通过精心设计输入提示来引导大语言模型生成高质量输出的技术,核心是「说清楚你要什么」。
2026-03-30 10:15:38
345
原创 LangChain与LangGraph的区别?
LangChain 和 LangGraph 都是 LangChain 生态系统中用于构建大型语言模型(LLM)应用的开源框架,但它们在设计理念和适用场景上有着本质的区别。
2026-03-30 10:14:22
418
原创 LLM:主流大模型架构概览 - 对比特性与规模
近年来,参数量突破 1 T 规模的 LLM 如 Ling 2.5 1T、GLM‑5 744B 频繁出现。模型规模的指数增长使得 架构特征(层数、稀疏化、混合专家等) 成为选择模型的关键维度,却缺乏统
2026-03-29 09:45:00
212
原创 RAG不香了,ASMR把记忆准确率干到了99%
本文介绍的论文提出了一种名为ASMR(Agentic Search and Memory Retrieval)的新技术,在LongMemEval基准上实现了近99%的准确率,标志着AI记忆系统的重要进展。
2026-03-28 10:26:37
179
原创 Qwen3.5-9B 初探
本地运行大模型,可以使用 Ollama、LM Studio、MLX 框架。其中 Ollama 底层使用了 llama.cpp,完美适配 Mac 的统一内存和 CPU/GPU 混合加速,最终选择了 Ollama。
2026-03-28 10:25:56
265
原创 Ollama:本地大模型部署神器,5 分钟跑起你的私人 AI
如果你不希望将数据上传到云端,担心隐私安全问题,或者害怕哪天突然收到一张失控的“天价” API 账单,那么在本地部署大模型或许是更安心的选择。
2026-03-28 10:25:13
517
原创 大模型告别“金鱼记忆“:2张显卡记住1亿Token,4B小模型干翻235B大模型
现在的 AI 大模型,其实也差不多——只不过它的"7秒"大概是 128K 到 1M 个 token(几千到几万字)。超过这个长度,它就会"失忆",开始胡言乱语。
2026-03-27 15:09:17
414
原创 文科生被AI大厂疯抢,月薪3万起,这条热搜,你真的看懂了吗?
AI浪潮直接催生出一个叫“首席讲故事官”的新职业,年薪30万美金,换算下来超过200万人民币。这帮人干的事,就是用通俗易懂的故事,让大众接受一家公司的产品——说白了,不就是资深媒体人的老本行吗?
2026-03-26 10:07:25
239
原创 普通Java程序员转行AI?建议别卷算法岗,AI应用才是王道
前两天有个朋友私信我,说他是二本软件工程毕业,做了快两年Java开发加运维,一直待在外包,工资不高,现在特别想转AI,但觉得自己学历普通,是不是根本没机会?
2026-03-26 10:06:17
316
原创 AI企业级知识库问答系统实战:从架构到部署的完整指南
基于大语言模型和检索增强生成技术的开源知识库AI问答系统ChatWiki,就遵循了上述核心架构的设计思路,支持本地部署和云端调用,适合企业私有化部署。
2026-03-25 15:39:12
377
原创 AI大模型调优工程:突破显存墙与灾难性遗忘的双重挑战
本文提出动态混合稀疏微调框架(DySparse),通过结构感知参数选择、梯度稀疏化压缩、神经路径蒸馏三大核心技术,在Llama3-405B模型实现调显存占用下降89%(8xA100可微调)、多任务遗忘率低于4.7%,推理延迟仅增加0.3ms。
2026-03-25 15:37:39
383
原创 大模型的”分而治之”智慧:混合专家模型(MoE)技术解析
MoE 并非什么新鲜概念,早在 1991 年就有人提出类似思路。但直到近几年,这套架构才真正在大模型领域大放异彩。
2026-03-24 14:22:39
232
原创 字节大模型一面:在构建一个复杂的 Agent 时,你认为最主要的挑战是什么?
一个好的回答策略是:挑3-4个你认为最核心的挑战,每个挑战不仅要说"是什么",更要说"为什么难"和"怎么缓解"。
2026-03-24 14:22:05
398
原创 大语言模型微调技术:从“全参数“到“高效微调“的进化之路
微调(Fine-tuning) 就是这样一个过程——在预训练好的大模型基础上,用特定领域的数据进行"再培训",让模型更好地适应具体任务。
2026-03-23 10:09:26
322
原创 不止是调用大模型:LangChain 如何构建真正的 Agent?
大模型很强,但它本质上只是“会说话”。当我们希望模型查天气、写文件、调用接口、跨步骤决策时,就需要一个能够编排模型与工具的框架
2026-03-23 10:08:42
391
原创 让大模型读懂你的私有文档:一文讲透 RAG 检索增强生成与Agent智能体落地
RAG,即Retrieval Augmented Generation,检索增强生成,被誉为当前大模型落地的“黄金架构”。它的核心逻辑非常简单却高效:先检索私有文档,后生成。
2026-03-23 10:08:05
362
原创 RAG 痛点全解决:不靠向量、不靠 Embedding,准确率 98.7%
本文将详细拆解 PageIndex 的工作原理、为何它在结构化文档场景中表现更优,以及如何动手搭建基于 PageIndex 的问答机器人。
2026-03-23 10:07:26
391
原创 京东算法岗(大模型方向),给了白菜价。。。
针对新人如何快速入门算法岗、如何准备面试攻略、面试常考点、大模型项目落地经验分享等热门话题进行了深入的讨论。
2026-03-22 10:30:00
363
原创 从”问答机”到”数字员工”:AI Agent架构模式的深度拆解与选型指南
全文的核心内容已经交付完毕。我们从”Agent是什么”讲到”四大模块怎么工作”,再深入四种主流架构模式(ReAct、Plan-and-Solve、Multi-Agent、Reflection)的原理与局限,最后给出这套选型框架。
2026-03-22 07:15:00
381
原创 构建有记忆的硅基大脑:AI Agent 记忆方案的理论溯源与工程实践
未来的开发者,将从缝补外部碎片的繁琐工程中解放出来,把真正的精力聚焦于如何塑造 AI 的认知对齐与心智成长。这才是赋予 Agent 真正“灵魂”的终极之路。
2026-03-21 11:21:34
428
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅