自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 混合检索:关键词 + 向量的最佳组合

场景向量权重BM25 权重说明法律 / 合规文档0.40.6条款编号精确命中优先电商 SKU 检索0.20.8OOD 产品编号为主企业知识库 FAQ0.50.5均衡起步,动态调整代码 / 技术文档0.350.65函数名/报错码精确匹配学术 / 科研资料0.70.3概念语义理解为主客服对话检索0.60.4自然语言意图优先医疗 / 药品资料0.450.55药品名+语义兼顾从 0.5/0.5 起步,用少量标注样本(20–50 条)运行。

2026-03-24 15:34:04 354

原创 (LLM系列)文档切分策略详解:Chunk Size 如何决定 RAG 系统的检索天花板

是否分析了目标文档的结构特点(Markdown?PDF?纯文本?Chunk Size 是否根据 Embedding 模型的最优输入长度做过对齐?(大多数模型最优区间在 128–512 token)是否保留了 Chunk 的 Metadata(所属章节、文档来源、页码)?Overlap 是否设置在 10%–20% 的合理区间?是否用标注数据集做过基线评估,而非凭感觉调参?对于长文档,是否考虑了层级索引(粗粒度检索 + 细粒度精排)?

2026-02-20 12:21:15 671

原创 (LLM系列)Embedding模型详解:OpenAI/Cohere/BGE三大方案对比

在AI应用开发中,Embedding模型是连接自然语言和机器理解的关键桥梁。本文深入解析OpenAI、Cohere、BGE三大主流Embedding方案的技术原理、性能特点、应用场景,并提供详细的选型指南。无论你是在构建RAG系统、语义搜索引擎,还是推荐系统,这篇文章都能帮你做出最优选择。

2026-02-15 22:22:19 631

原创 向量数据库选型指南:Pinecone vs Weaviate vs Chroma 深度对比

向量数据库是AI应用的核心基础设施。本文深度对比Pinecone、Weaviate、Chroma三款主流方案,从性能、功能、成本、部署等维度分析,并提供实际场景选型建议,帮助开发者快速做出明智决策。

2026-02-12 16:04:23 512

原创 RAG(检索增强生成)原理与实践

向量检索是RAG系统的第一步,也是最关键的一步。它的任务是从海量文档中快速找出与用户问题最相关的内容。RAG技术通过向量检索和上下文注入两大核心机制,成功地将外部知识与大语言模型结合,显著提升了AI系统的准确性和实用性。

2026-02-11 11:19:33 295

原创 (LLM系列)让大模型“深思熟虑”:ReAct、Self-Consistency 与 Tree-of-Thought 全解析

推理增强提示技术代表了大语言模型应用的重要发展方向,通过精心设计的Prompt,可以显著提升模型在复杂推理任务中的表现。本文介绍了四种前沿的推理增强技术:思维链(CoT)、自一致性(SC)、思维树(ToT)和ReAct,并通过数学问题和创意写作等场景展示了它们的应用。每种技术都有其独特的优势和适用场景CoT:简单易用,适合需要清晰推理过程的任务SC:提高稳定性,适合对答案可靠性要求高的任务ToT:探索多样性,适合需要多路径规划的复杂任务ReAct:结合行动,适合需要外部信息或工具支持的现实任务。

2026-02-05 16:47:47 599

原创 (LLM系列)Prompt工程完全指南:从零到高手

Prompt工程是设计和优化输入指令的艺术,目的是引导AI模型产生更准确、更有用的输出。就像与人交流一样,提问的方式直接影响得到的答案质量。Prompt工程是一门平衡艺术与科学的技能。Few-shot Learning教会我们通过示例沟通意图,Chain-of-Thought则揭示了引导模型深度思考的力量。掌握这两项技术,你就拥有了驾驭大语言模型的核心能力。记住,最好的prompt往往来自不断实验和迭代。开始尝试,记录你的发现,逐渐建立自己的prompt工程工具箱。

2026-02-05 16:22:56 602

原创 流式输出(Streaming)实现:提升用户体验

流式输出通过 SSE 和异步处理技术,将"等待-返回"的交互模式转变为"实时反馈"的体验。在 Qwen Chatbot 项目中,借助 Next.js 和 Web Streams API,我们优雅地实现了这一功能。无论是 AI 对话、数据处理还是实时日志,流式输出都能显著提升用户体验。通过结合后端流式传输和前端打字机效果,我们实现了既高效又直观的用户交互体验。随着 Web 技术的发展,流式处理将成为构建现代 AI 应用的标配能力。掌握这项技术,让你的应用更加流畅、响应更加迅速,为用户带来更好的交互体验。

2026-02-03 10:46:32 582

原创 (LLM系列)System Prompt最佳实践:让AI按你的意愿工作

除了专业领域,还应该定义AI的"性格特质"和沟通风格。案例对比:你是一位严谨的学术研究者,回答问题时:- 引用可靠来源和数据- 承认知识的局限性- 使用准确的专业术语- 区分事实、理论和推测你是一位经验丰富的项目经理,回答问题时:- 提供可立即执行的建议- 基于真实案例和最佳实践- 用通俗语言解释复杂概念- 重点关注ROI和可行性科学的部分清晰的结构和逻辑可测试和可迭代基于数据的优化艺术的部分理解用户真实需求平衡灵活性与约束打造独特的交互体验。

2026-02-02 12:43:34 682

原创 LLM参数详解:temperature/top_p/max_tokens

通过本项目的实验可以看出,中等参数配置(temperature=0.7, top_p=0.9)在多数场景下都能提供良好的输出质量,这正是我们在项目中采用的默认配置。在大语言模型(LLM)的应用中,合理配置参数是获得理想输出效果的关键。本文将详细解析三个最重要的参数:temperature、top_p和max_tokens,介绍它们的含义、调优技巧,并通过实际应用案例展示参数实验对比。通过不断实验和调整,我们可以找到最适合特定应用场景的参数组合,从而最大化LLM的实用价值。

2026-02-01 21:14:09 638

原创 (LLM系列)理解Token:为什么我的API费用这么高?

摘要:大语言模型API费用高昂的主要原因是Token计费机制,Token作为文本处理的基本单位直接影响成本。费用取决于输入和输出Token数量,频繁调用和过长上下文会显著增加支出。优化策略包括控制上下文长度、预估Token使用、选择合适模型、批处理请求和缓存响应。通过Qwen Chatbot项目实现了实时Token监控功能,帮助开发者理解成本构成并优化应用逻辑。理解Token机制和采用合理优化措施可有效控制API成本。

2026-02-01 10:18:54 783

原创 如何使用通义千问(Qwen)大模型的 OpenAI 兼容 API 构建 AI 聊天应用

本文介绍了如何使用通义千问的 OpenAI 兼容 API 构建 AI 聊天应用。快速集成:兼容 OpenAI 接口,降低迁移成本高性能:通义千问模型具备强大的理解和生成能力灵活部署:支持多种部署方式,适应不同需求成本可控:按量付费,可根据预算灵活调整个人项目和原型验证企业客服系统内容创作辅助工具智能问答系统。

2026-01-31 22:21:15 801

原创 (LLM系列)什么是大语言模型?

大语言模型是一种基于深度学习的人工智能系统,经过海量文本数据的训练,能够理解和生成人类语言。简单来说,LLM 就像一个极其博学的助手,它通过学习互联网上的大量文本内容,掌握了语言的模式、知识和推理能力。大语言模型正在重新定义我们与信息交互的方式。GPT、Claude 和 Gemini 各有千秋,没有绝对的"最佳"选择,只有最适合您需求的工具。建议您根据具体任务需求,尝试不同的模型,找到最契合您工作流程的 AI 助手。随着技术的不断进步,这些模型将变得更加强大和易用。

2026-01-30 11:49:24 646 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除