大模型
文章平均质量分 96
我怎么又饿了呀
你说那么多,我又不会咋整
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
DataWhale-HelloAgents(第四章:智能体经典范式构建)
文章摘要:本文介绍了《Hello-agents》教程中智能体构建的核心内容,主要包括:1) 搭建OpenAI接口环境并封装LLM客户端类;2) 集成SerpAPI实现网页搜索工具;3) 设计可扩展的工具执行器框架。关键代码展示了如何通过流式调用大模型、解析搜索结果并管理多工具协同工作,为构建问答型智能体提供实践方案,适合开发者学习智能体开发基础。原创 2025-11-14 22:46:18 · 1146 阅读 · 5 评论 -
DataWhale-HelloAgents(第二部分:大语言模型基础)
《Hello-Agents》教程涵盖从基础神经网络到Transformer架构的完整技术栈。该教程包含ANN、CNN、RNN等传统神经网络的理论推导与代码实现,重点讲解Transformer的自注意力机制和多头注意力原理,并提供了Decoder-Only架构的完整实现方案。内容涵盖数学推导、NumPy手写实现、PyTorch验证以及生产级优化方案,同时包含近年主流开源模型的对比分析和12项量化评估指标。教程开源地址为GitHub/datawhalechina/hello-agents,支持PDF下载,适用于原创 2025-11-12 20:47:02 · 1114 阅读 · 0 评论 -
DataWhale-HelloAgents(第一部分:智能体与语言模型基础)
《Hello-Agents教程》介绍了智能体(Agent)的开发与应用,2025年被视作"Agent元年"。教程基于Python环境,适合具备基础编程能力的学习者。智能体由规划模块、工具接口和记忆机制三大核心组成,能够自主执行任务。多智能体系统通过协作实现复杂功能。教程强调从基本原理出发,通过实践项目掌握智能体开发,而非追逐新框架。作者分享了开发经验,包括双模型验证、分级记忆等优化方法。智能体将大模型转化为目标驱动的执行系统,掌握其开发能力将获得未来自动化领域优势。教程GitHub地址和原创 2025-11-08 09:22:48 · 1910 阅读 · 0 评论 -
Windows&Linux系统 安装 CUDA 和 cuDNN
解压文件至 CUDA 安装目录时,系统会提示“替换目标中的文件”,点击替换即可。:通过快捷键 Win + R 唤出“运行”,输入“cmd”唤出命令行,在命令行中输入“nvidia-smi”,查看右上角显示的 CUDA 版本,该数字表示驱动支持的最高 CUDA 版本,CUDA 版本需与显卡驱动、cuDNN 版本严格匹配,否则会导致兼容性问题。:打开命令提示符,进入 CUDA 安装目录下的“bin”文件夹,运行“deviceQuery.exe”,如果结果显示为 pass,则证明 cuDNN 安装成功。原创 2025-08-07 15:42:07 · 1824 阅读 · 0 评论 -
vLLM 推理模型API参数及配置详解
本文详细介绍了vLLM推理模型的配置参数和API接口规范。在模型配置方面,涵盖了分布式推理参数(如张量并行和流水线并行)、显存优化参数(如分块预填充和显存利用率控制)、推理加速参数(如投机解码)以及模型加载相关参数。在API接口部分,阐述了RESTful和gRPC两种接口类型,详细说明了请求/响应参数格式,并提供了示例代码。此外,还介绍了版本管理、安全认证、分页筛选和错误处理等API功能特性。这些内容全面展示了vLLM框架在模型推理和接口服务方面的灵活配置能力。原创 2025-08-07 08:30:16 · 3123 阅读 · 0 评论 -
从零开始部署Qwen3-8b大模型到本地
需要注意的是,如果使用conda安装vllm版本小于0.8.5则需要使用pip安装最新的才可以使用,否则不兼容Qwen3,只要你的 vLLM 版本 ≥ 0.8.5(推荐直接用最新 0.9.x),Qwen3-8B 可以“一键启动”。使用ModelScope下载并启动Qwen3-4B,在此之前要先pip install modelscope,也可以不安装modelscope删除VLLM_USE_MODELSCOPE=true直接下载模型启动。如果在安装时选择了初始化,安装程序会自动配置环境变量。原创 2025-08-06 20:40:47 · 2509 阅读 · 0 评论
分享