自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

小志的博客

随笔笔记仅供参考

  • 博客(1615)
  • 资源 (14)
  • 收藏
  • 关注

原创 RAG——微软GraphRAG

在处理大型数据集或长文档时,RAG 难以有效地归纳和总结复杂的语义概念。例如,试图从一份包含数百页的技术文档中提取关键要点,对 RAG 来说是极具挑战性的。这导致其在需要全面理解和总结复杂语义信息的场景中表现不佳。为了解决这些挑战,

2026-03-23 20:21:32 329

原创 RAG—— Modular RAG(模块化 RAG)

本文介绍了RAG(检索增强生成)技术的演进过程,从基础的Naive RAG到优化流程的Advanced RAG,再到高度灵活的Modular RAG。Modular RAG通过模块化设计和智能编排(Orchestration)实现动态流程控制,其核心包括路由(Routing)、调度(Scheduling)和知识引导(Knowledge Guide)。路由模块通过查询分析和管道选择确定最优处理流程;调度模块管理执行顺序并判断检索需求;知识引导则结合知识图谱和推理路径提升复杂查询的处理能力。这种模块化架构显著提

2026-03-19 22:38:50 288

原创 RAG——Advanced RAG(进阶RAG)

本文系统梳理了RAG技术的演进过程,从基础Naive RAG到优化检索流程的Advanced RAG,再到灵活组合的Modular RAG。重点分析了Advanced RAG的优化策略:检索前通过分块、元数据、分层索引等技术提升检索精度;检索中采用动态嵌入、混合检索等方法增强语义匹配;检索后通过重排序、提示压缩等手段优化生成质量。通过实际案例对比,展示了Advanced RAG在复杂问题处理上的显著优势,为构建高效RAG系统提供了系统性的技术指导。

2026-03-19 21:32:06 298

原创 RAG——RAG效果提升(检索精度的优化与RAG效果评估)

本文探讨了优化RAG(检索增强生成)系统检索精度的关键方法及效果评估体系。在优化方法方面,重点介绍了数据清洗预处理(去除冗余内容、格式标准化)、查询扩展(生成多角度子查询)、自查询(提取关键元数据)和提示压缩(过滤无关信息)四种技术。在评估体系方面,提出了模型打分与人工打分相结合的评估方式,并制定了CR检索相关性、AR答案相关性和F可信度三大核心指标,配套1.0-0分的四级评分标准。这些方法共同构成了提升RAG系统性能的完整解决方案,通过持续优化和评估可显著提高信息检索的准确性和生成结果的质量。

2026-03-17 21:57:59 466

原创 RAG——RAG生成(Prompt提示工程)

提示工程师的任务不仅仅是设计提示,而是通过深刻理解模型的功能和局限性,创造能够与模型输入产生最佳互动的提示。提示工程不仅仅是设计和开发提示,而是包含了一系列的技能和技巧,这些技能和技巧有助于与语言模型的有效互动和功能扩展。通过为模型设定特定的角色身份,可以帮助模型更好地理解任务要求和角色责任,从而输出更加一致、专业的内容。模糊的指示往往导致模型产生不理想的结果,而具体指令则有助于模型明确任务目标,生成更符合预期的内容。这些元素的组合和优化是提示工程的关键,能够直接影响大模型的性能和输出质量。

2026-03-17 20:54:11 401

原创 RAG——RAG生成(大模型)

本文探讨了大模型在RAG(检索增强生成)系统中的核心作用及选型策略。RAG通过外部知识增强大模型的理解能力,使其成为系统的"大脑"。文章回顾了大模型的发展历程,从Transformer架构的突破到ChatGPT引发的AI热潮,并分析了中文大模型的发展现状。在模型选择方面,建议根据SuperCLUE等测评结果,结合开源/闭源、参数规模、部署环境等实际需求进行综合考量。闭源模型推荐通义千问、文心一言等,开源模型则建议考虑Qwen、Baichuan和ChatGLM系列。文章强调模型选择应平衡性

2026-03-15 16:40:28 410

原创 RAG——RAG检索(重排序技术)

本文介绍了RAG系统中重排序技术(Reranking)的重要性和应用。重排序技术通过对初始检索结果进行重新排序,可以显著提升检索结果的相关性,为生成模型提供更优质的上下文。文章分析了重排序技术的三大优势:优化检索结果、增强上下文相关性和应对复杂查询。重点介绍了开源重排序模型bge-reranker-v2-m3的应用,并提供了完整的代码实现方案,包括环境配置、模型加载和重排序计算等核心步骤。通过实际代码示例展示了如何将重排序技术整合到RAG系统中,从而在保持检索效率的同时提高结果质量。文章还指出在实际应用中需

2026-03-15 12:21:09 554

原创 RAG——RAG检索(混合检索)

本文探讨了RAG(检索增强生成)中的混合检索技术,结合向量检索和关键词检索的优势提升搜索效果。向量检索擅长语义匹配,但在精确匹配、短词搜索等场景表现欠佳;关键词检索则能有效处理产品编号、低频词等特定查询。混合检索通过多路召回策略(如BM25算法+向量检索)综合不同检索结果,并采用重排序技术(如RRF算法)优化结果排序。实验数据表明,混合检索结合重排序能显著提升召回率和准确性。文章还提供了Python实战代码,演示如何集成BM25和jieba分词实现中文混合检索。这种技术组合为RAG系统提供了更全面、精准的检

2026-03-12 20:56:26 492

原创 RAG——RAG向量数据库原理与常用向量库

本文介绍了向量数据库的分类、优势、工作原理及主流产品。向量数据库专为处理高维向量数据设计,相比传统数据库在语义相似性搜索方面具有显著优势。文章将向量数据库分为开源/商用、专用/支持向量搜索四大类,并详细阐述了其核心功能:高效索引、近似最近邻搜索及多模态数据处理能力。通过Chroma、Milvus等典型产品对比,指导开发者根据项目需求(如轻量部署、企业级扩展或多模态支持)选择合适的解决方案。最后以Chroma替换Faiss的RAG项目实践为例,展示了向量数据库在AI应用中的实际价值。

2026-03-10 21:13:44 336

原创 RAG——RAG 索引(嵌入技术)

本文介绍了嵌入模型(Embedding Model)在RAG系统中的核心作用,包括将文本数据映射为高维向量表示的技术原理。文章首先解释了Embedding的基本概念,即通过向量捕捉文本语义信息,使相似内容在向量空间中距离更近。然后详细介绍了嵌入模型的发展历程,从早期的word2vec到当前主流的BERT等上下文敏感模型。在评估选择方面,建议参考MTEB/C-MTEB榜单,综合考虑检索精度、模型大小、支持文本长度等指标,并强调实际业务场景测试的重要性。最后提供了使用SentenceTransformers加载

2026-03-08 20:36:23 390

原创 RAG——RAG 索引(分块策略)

本文介绍了RAG系统中的关键分块技术及其策略选择。分块技术通过将文档拆分为适当大小的片段,直接影响检索和生成质量。文章详细分析了6种分块策略:固定大小分块(基准方法)、重叠分块(保留上下文)、递归分块(按语义单元分割)、文档特定分块(针对格式)、语义分块(NLP技术)和混合分块(综合优势)。每种策略各有适用场景和局限性,需根据文档特点和查询需求选择。最后指出LangChain提供了对应实现方法,便于开发者集成使用。合理选择分块策略对提升RAG系统性能至关重要。

2026-03-08 19:16:04 465

原创 RAG——RAG 索引(文档解析技术)

本文介绍了RAG系统中文档解析的关键技术,重点分析了如何通过LangChain的Document Loaders处理多种格式文档。文章指出高质量文档解析对RAG系统效果的决定性作用,并详细讲解了PDF、TXT、Word等常见格式的解析方法。作者提供了代码示例和Gitee开源项目链接,特别强调了PDF解析的深入方案,同时介绍了相关依赖库的安装配置。文章还展示了如何定义通用文档加载方法,为开发者提供了实用的技术参考。

2026-03-05 21:45:24 336

原创 RAG——从0到1快速搭建RAG应用

本文介绍了基于LangChain框架构建RAG(检索增强生成)应用的技术方案,涵盖核心模块选型与实现流程。技术栈包括:LangChain应用框架、pypdf文档解析、RecursiveCharacterTextSplitter文本分块、bge-small-zh-v1.5向量模型、Faiss向量库和通义千问大模型。文章详细说明了开发环境配置步骤,包括虚拟环境创建、依赖库安装和模型下载。核心代码分为索引、检索、生成三大流程,索引流程完成PDF文档解析、分块和向量化存储;检索流程实现查询向量化和相似度匹配;生成流

2026-03-04 22:02:13 337

原创 RAG——为什么说RAG是AI 2.0时代的“杀手级”应用

本文介绍了RAG(检索增强生成)技术及其在大模型应用中的重要性。RAG通过结合外部知识库检索与大模型生成,解决了大模型存在的幻觉、知识时效性、领域知识不足和数据安全问题。文章详细阐述了RAG的标准流程(索引、检索、生成)及其在企业知识管理、客服系统等场景的应用优势,并与微调技术进行了对比,指出RAG更适合需要动态响应和实时更新的场景。该技术为大模型应用提供了更精准、安全的解决方案,是AI 2.0时代的重要技术方向。

2026-03-03 20:51:18 275

原创 AI大模型实战——企业如何搭建 AI 中台

本文介绍了AI中台的技术架构设计思路,从数据管理到应用服务的全流程解决方案。架构包含数据收集与标注、模型训练与管理、服务部署等核心模块,强调大模型与小模型的统一管理。重点分析了数据收集的挑战与少样本训练方法,探讨了智能标注、分布式训练等技术难点。在模型服务层,提出API封装、计费管理和调用控制等关键功能。最后指出该架构可灵活支持企业内部使用、SaaS化部署或私有化交付。整体方案兼顾技术创新与实用落地,为构建企业级AI平台提供了系统性的参考框架。

2026-03-02 20:33:50 542

原创 AI大模型实战——企业如何设计大模型应用架构

本文介绍了基于AI技术的自动化报销系统设计方案。系统通过AI中台实现发票识别、行程单生成等功能的自动化处理,包含PDF文本提取、OCR识别、词嵌入、向量数据库等核心技术模块。文章重点分析了系统架构设计,包括Java接口服务与Python模型服务的分工协作,以及处理PDF文件、词嵌入、向量检索等关键环节的技术选型与实现方案。同时指出了OCR准确率、模型推理效率、知识库维护等潜在风险点,并提出了相应的解决方案。该系统旨在解决传统报销流程繁琐、效率低下的问题,通过AI技术提升数据处理效率和准确性。

2026-03-01 20:21:57 534

原创 AI大模型实战——模型核心技术指标:如何提高上下文长度

摘要: 上下文长度是大模型的重要技术指标,直接影响AI问答的智能程度。当前主流产品如Kimi、GPT-4-turbo等通过支持超长上下文(如200万字、128K)提升交互体验。超长上下文的价值在于实现个性化交互,减少模型微调需求,并通过扩大信息参考范围降低“幻觉”概率。然而,上下文长度受计算资源(平方级算力增长)、内存和带宽限制。解决方案包括稀疏注意力、滑动窗口、降采样等技术,但可能牺牲性能。Kimi采用创新训练(序列并行、定制优化)和推理技术(GQA、量化等)平衡能力与效率。测试显示,超长上下文的实际效果

2026-02-28 21:30:13 596

原创 AI大模型实战——如何让模型运行在低配置设备上

本文介绍了模型轻量化的两种方法:参数剪枝和量化。参数剪枝通过移除对模型性能贡献较小的权重来降低复杂度,包括无结构和结构化剪枝两种方式。量化则将浮点权重转换为低精度格式(如INT8)以减少存储空间和加速推理。文章详细说明了参数剪枝的具体步骤,包括加载模型、选择剪枝策略、实施剪枝和保存优化后的模型,并指出剪枝后可能需要微调以恢复性能。量化部分介绍了静态、动态和感知训练量化三种方法,并展示了代码示例。这两种方法能有效降低模型复杂度,使其能在更低配置设备上运行。

2026-02-27 20:56:08 540

原创 AI大模型实战——模型测评:如何评估大模型的表现

大模型评测体系解析:从数据集到基准测试 本文系统梳理了大模型评测的关键要素。在数据集方面,重点介绍了C-Eval等中文评估套件,强调数据质量需通过人工验证保证。评测维度涵盖自然语言理解、知识推理、代码生成等核心能力。基准测试作为标准化评估方法,Glue、SuperClue等平台提供了公平比较的依据。文章指出厂商自评榜单存在水分问题,建议关注第三方评测。同时解析了少样本和零样本两种prompt模式的应用场景差异。最后解释了"SOTA"这一术语在描述模型最优性能时的应用价值。整体呈现了大模型

2026-02-26 21:06:00 581

原创 AI大模型实战——人类意图对齐,让模型拥有更高的情商

但是,GPT-3 也可能产生不真实、有毒或反映有害情绪的内容,原因GPT-3 的训练数据主要来自于互联网,而互联网中掺杂了各种各样的内容,有些是正常的,有些则不正常。简单理解,就是通过一个奖励模型(RM)引导基线模型(如 GPT-3)做出反应,而这个奖励模型就是按照人类偏好训练好的模型。但是毕竟这还是人为设定的原则,各类专家依然可以保留自己的意见,这方面目前还没有统一的认识,有可能在将来的某一天,有一个世界级的人工智能组织,站出来组织各类玩家制定公约,也不是没有可能。感兴趣的读友可以去找来看看。

2026-02-25 21:00:55 526

原创 AI大模型实战——深入理解DeepSpeed,提高大模型训练效率

DeepSpeed是微软开发的分布式深度学习训练库,支持万亿参数模型训练。其核心特点是3D并行技术(数据并行、模型并行、管道并行),显著提升训练效率。在推理方面,采用Dynamic SplitFuse技术将长提示分解处理,速度提升2.3倍。模型压缩技术可实现32倍压缩率且精度损失极小。此外,DeepSpeed还推出DeepSpeed4Science计划,致力于用AI解决重大科学问题。该框架通过创新技术大幅提升了深度学习模型的训练和推理效率,适用于超大规模模型场景。

2026-02-14 20:45:00 1267

原创 AI大模型实战——大模型预训练:Pre-Training如何让模型变聪明

本文介绍了一个三层神经网络模型的训练过程,包括网络结构设计、数据集准备、参数初始化、前向传播和损失计算。模型通过调整权重和偏置来优化预测学生考试通过率,使用随机初始化方法(如He或Xavier初始化)来避免梯度问题。前向传播涉及矩阵乘法和激活函数(如Sigmoid),最后通过损失函数评估预测误差。文章还提供了代码示例,说明如何自定义参数初始化和实现前向传播的计算步骤。

2026-02-13 09:15:00 1003

原创 AI大模型实战——模型解剖:探究模型内部到底是什么

本文介绍了神经网络模型文件的结构与内容,重点解析了权重和偏置的作用机制。通过PyTorch框架示例展示了模型保存方法,比较了不同保存方式的兼容性差异。文章使用Netron等工具对模型结构进行可视化分析,详细解读了Embedding层和TransformerDecoderLayer的组成。最后通过计算模型容量(505M大小)和参数数量(1.2亿),阐述了Embedding层在模型中的重要性,并以5*10矩阵为例说明了参数在词向量中的具体应用。全文从技术实现到原理分析,系统性地讲解了神经网络模型的核心要素。

2026-02-12 21:01:48 600

原创 AI大模型实战——从零开始,构建一个具有100M参数规模的Transformer模型

本文介绍了基于Decoder-only架构的Transformer模型构建方法。首先分析了GPT选择Decoder-only架构的原因,包括自回归特性、简化设计等。然后详细讲解了模型参数计算方式,包括嵌入层、位置编码、解码器层等各部分参数量的计算公式。文章提供了使用PyTorch实现的Transformer解码器模型代码示例,并介绍了如何准备中文Wiki数据集作为训练数据,包括文本预处理步骤。最后给出了数据预处理的具体代码实现,将原始JSON数据转换为纯文本格式用于模型训练。

2026-02-10 22:49:42 577

原创 AI大模型实战——Transformer技术原理

本文介绍了Transformer模型的核心原理与架构。Transformer是一种基于自注意力机制的深度学习模型,取代了传统的RNN结构,通过并行计算显著提升了序列处理效率。文章详细解析了注意力机制的工作原理,包括查询-键-值向量转换、相似度计算和注意力权重分配。重点阐述了多头注意力机制的分割处理方式,以及编码器-解码器组的结构设计,其中编码器包含自注意力层和前馈网络,解码器增加了编码-解码注意力层。最后说明了位置编码的重要性,以及残差连接和归一化操作在模型中的作用。这些创新设计使Transformer成为

2026-02-03 21:03:52 624

原创 AI大模型实战——深入理解Seq2Seq

本文介绍了Seq2Seq模型的基本原理与应用。Seq2Seq是一种将输入序列转换为输出序列的神经网络架构,由编码器和解码器组成。编码器将输入序列压缩为上下文向量,解码器基于该向量生成目标序列。文章详细讲解了编码器、解码器的工作机制,并介绍了可选的注意力机制。此外,还通过中英文翻译案例演示了模型训练过程,包括数据预处理、词汇表构建、超参数设置等关键步骤。最后展示了模型训练代码实现,为读者提供了Seq2Seq模型从理论到实践的完整学习路径。

2026-01-29 22:28:28 662

原创 AI大模型实战——深入理解Word2Vec(词向量)

本文介绍了Word2Vec技术及其应用。Word2Vec通过将词语转换为向量形式,使计算机能够理解词语间的语义关系,相似词汇在向量空间中位置邻近。文章详细讲解了Word2Vec的两种主要模型(Skip-Gram和CBOW)及其架构,并通过实际案例展示了如何构建自己的Word2Vec模型。案例使用微博内容数据集进行预处理和训练,最终生成词向量并评估模型效果。评估方法包括词相似度计算和词类比计算,结果显示模型能准确捕捉词语间的语义关联。Word2Vec广泛应用于情感分析、机器翻译等领域,但也存在无法处理多义词等

2026-01-24 21:52:34 747

原创 AI大模型实战——关于自然语言处理,你需要了解的基本概念

本文介绍了自然语言处理(NLP)的基础知识,包括其定义、处理流程和应用场景。重点讲解了文本预处理的四个关键步骤:文本清洗(去除噪声和标准化)、分词(分解文本)、去除停用词(过滤无意义词)和词干提取(简化词形变化)。通过Python代码示例展示了每个步骤的具体实现方法,如使用正则表达式清洗文本、NLTK库进行分词和词干提取等。这些预处理技术为后续的NLP任务(如特征提取和模型训练)奠定了基础,广泛应用于搜索引擎、机器翻译等领域。文章还提供了微信公众号"小志的博客"作为后续技术文章的发布渠道

2026-01-15 21:20:01 905

原创 AI大模型实战——经典算法之RNN:循环神经网络

本文介绍了循环神经网络(RNN)的基本原理和应用。RNN通过隐藏层的循环结构处理序列数据,能够记住上下文信息。文章详细讲解了RNN的基本结构和工作原理,包括隐藏状态的计算方法,并通过文本预测示例说明RNN的记忆功能。同时分析了RNN面临的关键挑战——梯度消失和梯度爆炸问题,提出了使用LSTM、GRU网络结构和调整激活函数等解决方案。最后以文本生成为例,展示了RNN的实际应用场景。这些知识为理解更复杂的Transformer模型奠定了基础。

2026-01-12 21:59:58 1061

原创 Mysql——Window11环境如何修改root账号的密码(图解版,亲测有效)

本文详细介绍了在Windows系统下修改MySQL 8.0 root账号密码的完整步骤。首先通过服务管理器找到MySQL服务名称,以管理员身份停止服务;然后进入MySQL的bin目录,通过指定配置文件启动免密模式;接着新建管理员窗口重新启动服务,使用免密方式登录MySQL;最后通过修改用户权限和密码(注意root用户的主机地址可能是%而非localhost),完成密码重置。整个过程需保持命令行窗口不关闭,并多次刷新权限,最终成功修改密码为"123456"。

2026-01-12 21:00:20 982

原创 Python——选择PyCharm下载版本及Windows11环境安装PyCharm步骤

,点击对应的环境安装包【选择自定义安装目录,点击【进入官网首页,点击【选择下载的版本环境【

2026-01-10 21:19:04 654

原创 AI大模型实战——关于机器学习,你需要了解的基本概念(二)

本文介绍了三种经典机器学习算法:决策树、随机森林和支持向量机(SVM)。决策树通过树状结构进行决策,可用于分类和回归任务,但容易过拟合。随机森林通过集成多棵决策树并引入随机性(样本随机性和特征随机性)来提高预测准确性并防止过拟合。SVM则通过寻找最优超平面来最大化不同类别数据点的间隔,具有良好的泛化能力。文章通过Python代码示例展示了各算法的实现方法,并解释了关键概念如Gini指数、支持向量等。这些算法广泛应用于客户分类、信用评分、医疗诊断等领域。

2026-01-10 20:59:38 767

原创 Python——Windows11环境安装配置Python 3.12.5

本文详细介绍了Python 3.12.5的下载安装全流程。主要内容包括:1)通过官网或百度网盘获取安装包;2)图文展示安装步骤,重点提示勾选"添加到环境变量"选项;3)安装完成后的验证方法,包括检查Python和pip版本;4)配置清华镜像源以加速下载;5)通过安装selenium包测试环境可用性;6)可选的环境变量配置说明。文档提供了完整的安装指引和常见配置方案,适合Python初学者快速搭建开发环境。

2026-01-09 21:44:21 4483 1

原创 AI大模型实战——关于机器学习,你需要了解的基本概念(一)

明确你希望机器学习解决的问题。比如可能是一个分类问题(如区分图片中是猫还是狗),或者是一个回归问题(如预测房价),也有可能是一个聚类问题(如识别有相似需求的客户群体)。

2026-01-09 20:58:52 975

原创 AI大模型实战——大模型API封装:自建大模型如何对外服务

本文介绍了基于FastAPI和Uvicorn构建大模型API服务的工程化实践。首先引入FastAPI框架进行接口服务化封装,配合Uvicorn高性能Web服务器处理并发请求。文章详细讲解了安装依赖、代码分层结构设计,包括controller、service、model等模块划分,并展示了如何使用Pydantic进行数据验证。通过include_router方法实现路由集成,最终构建了一个可扩展的API服务架构,为本地大模型部署提供完整的工程化解决方案。

2026-01-08 21:18:47 1511

原创 AI大模型实战——基于ChatGLM3-6B+LangChain+Faiss搭建企业内部知识库

本文介绍了基于知识库模式的AI应用开发方法。知识库模式相比微调具有知识准确、更新快速等优势。文章详细讲解了Langchain-Chatchat系统架构,包含大语言模型、Embedding模型、向量数据库等核心组件,并提供了从系统部署到知识管理的完整实践指南。系统部署部分涵盖依赖安装、模型下载、参数配置等步骤;知识管理部分展示API/WebUI使用方法和Tools开发示例。最后介绍了向量数据库的基本概念和相似度计算方法,说明如何通过向量表示和计算实现个性化推荐功能。本文为开发基于知识库的AI应用提供了实用参考

2026-01-07 20:29:11 841

原创 AI大模型实战——如何基于ChatGLM3-6B+Lora基本法律常识大模型

本文介绍了增强大模型特定领域知识的三种方法:微调、知识库和API调用。微调通过训练数据使模型掌握新知识,适合需要逻辑推理的场景;知识库和API则为模型提供外部数据支持,适合快速获取信息。文章以法律小助手为例,详细说明了微调流程:需求分析、数据准备、依赖安装、配置修改和微调执行。三种方法可单独或组合使用,企业可根据实际需求选择合适的技术方案来提升大模型的领域能力。

2026-01-06 21:48:28 896

原创 AI大模型实战——如何本地化部署开源大模型ChatGLM3-6B

本文介绍了大模型选择与部署的实践指南。重点分析了ChatGLM3-6B作为开源模型的优势:62亿参数规模适中,单张3090显卡即可微调和推理,适合中小企业应用。文章详细说明了GPU资源获取方案,包括二手显卡购买、云服务租赁等。在部署环节,提供了从环境准备到模型下载、命令行和Web界面启动的完整流程,并介绍了量化部署等显存优化方案。最后解释了max_length、temperature等关键参数的调优建议。整体为开发者提供了从选型到落地的实用技术方案。

2026-01-05 21:17:37 1288

原创 AI大模型实战——探索智能体世界:LangChain与RAG检索增强生成

本文介绍了AI大模型的局限性以及AI Agent(智能体)的概念与作用。大模型在数据时效性、复杂任务处理、代码生成等方面存在不足,而AI Agent作为以大模型为核心控制器的代理系统,能够弥补这些缺陷。文章重点分析了LangChain技术框架,详细阐述了其六大核心模块(模型I/O、检索、代理、链条、内存、回调)的功能与交互方式,并介绍了LCEL表达式语言的管道式编程方法。最后指出LangChain已发展为一个包含开发框架、DevOps平台、API管理工具的完整AI应用开发生态,展现了AI技术对软件开发流程的

2026-01-04 23:03:28 879

原创 AI大模型实战——学好提示工程,轻松驾驭大模型

摘要: 提示工程是优化AI大模型交互的关键技术,通过设计精准的提示(Prompt)引导模型生成高质量输出。随着提示工程师岗位的兴起(年薪可达30万美元),其重要性日益凸显。提示不同于简单提问,而是基于模型自回归训练原理,通过详细描述任务、上下文、示例、角色、格式和语气等模块(核心为任务和上下文),提升模型输出的准确性。例如,为生成Web登录代码,需明确框架、加密方式及步骤。掌握提示工程实质是提升“AI领导力”,通过高效沟通释放大模型的潜力。

2025-12-29 22:20:01 845

科大讯飞语音识别java版本demo

调用科大讯飞SDK包,语音识别java版本代码示例。示例包括语音听写、语音识别、语音组合三个功能,本人只用到语音听写(即把语音转成文字)

2019-04-25

科大讯飞Msc.jar

科大讯飞SDK包中的msc.jar包,msc 语音功能 需要该jar包的引用。科大讯飞Msc.jar

2019-04-11

ojdbc(6、8、14版本jar)

ojdbc(6、8、14版本jar)

2020-12-24

轮播图代码

轮播图代码

2016-11-25

ueditor编辑器

ueditor编辑器

2016-12-26

docker+k8s.txt

一份很不错的学习k8s的视频,包括docker一部分和k8s一部分,希望有需要的人能够下载下来一份很不错的学习k8s的视频,包括docker一部分和k8s一部分,希望有需要的人能够下载下来

2019-06-19

微信小程序 实例汇总 完整项目源代码

微信小程序 实例汇总 完整项目源代码

2016-12-21

微信小程序开发工具

小程序开发工具

2016-12-22

redis-3.2.4.tar

redis数据库安装包

2016-12-22

RSS订阅例子

RSS订阅

2016-11-25

kindeditor编辑器

kindeditor编辑器

2016-12-26

dubbo-admin-2.5.3.war

dubbo-admin-2.5.3.war ,dubbo管理控制台所需的dubbo-admin-2.5.3.war

2017-10-19

apache-tomcat-7.0.57.tar.gz

java开发技术所需的 tomcat7版本的apache-tomcat-7.0.57.tar.gz包

2017-10-19

zookeeper-3.4.6.tar.gz

java技术所需的 zookeeper-3.4.6版本的注册中心tar包 。

2017-10-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除