本地离线模型搭建指南-本地运行显卡选择

搭建一个本地中文大语言模型(LLM)涉及多个关键步骤,从选择模型底座,到运行机器和框架,再到具体的架构实现和训练方式。以下是一个详细的指南,帮助你从零开始构建和运行一个中文大语言模型。

本地离线模型搭建指南将按照以下四个部分展开

  1. 中文大语言模型底座选择依据
  2. 本地运行显卡选择
  3. RAG架构实现
  4. LLaMA-Factory训练框架及工具

2本地运行显卡选择

Awesome-Chinese-LLM仓库中,有许多中文大语言模型适合在本地运行。对于需要选择消费级别显卡的用户,可以参考以下信息:

2.1 适合消费级别显卡运行的模型参数大小

  • 大小为6B或7B,部分8B的模型,可以在消费级别的显卡上运行。显存建议8G起步,否则会出现模型加载不成功的问题。
  • 这些模型参数大小同样也可以在CPU上远行,但聊天文字生成速度只有同类型显卡的1/5-1/10。CPU配置最低建议16核心,32G内存。

2.2 推荐消费级别显卡

  • NVIDIA GeForce RTX 4060 至 4090 系列,显存12GB起步。
  • NVIDIA T4卡也可以运行本地模型。

2.3 性能比较

  • T4卡:服务器级别GPU计算图形显卡,本地运行模型推荐12G起步,大致对等评估,T4卡16G的性能和4070T16G显存性能一致。
  • RTX 4060-4090 系列:消费级显卡,性能强劲,显存从12GB到24GB不等,适合高性能计算和深度学习任务,本地运行模型推荐12G起步。
    在这里插入图片描述
    在这里插入图片描述

2.4 消费级显卡配置建议

  1. 优先选择单卡配置:单卡配置简单,易于管理。
  2. 双卡配置:消费级台式机最多支持两张显卡集火(NVIDIA SLI或NVLink)。

若需突破双卡限制:

  • 请查阅并考虑使用华硕 ESC8000-G4 服务器配置,该服务器支持多达8张显卡的集火,适用于更大规模的计算需求。

2.5 本地部署模型实践运行配置

底座包含模型模型参数大小机器配置显存大小是否可运行
ChatGLMChatGLM3-6B6BCPU 16核心 32G内存可以
ChatGLMChatGLM3-6B6B显卡4070Ti16G可以
ChatGLMChatGLM4-9B9B显卡4070Ti16G可以
LLaMAChinese-LlaMA27B显卡3060Ti8G可以
QwenQwen1.57B显卡4070Ti16G可以

注意:以上运行均值单独运行模型后是否可以运行以及显存是否够用,如果后期做RAG架构,ChatGLM4-9B模型在16G显存上不够,刚好差200M的显存,所以如果买新显卡,如果预算够,显存是第一优先考虑选项,之后才是显卡的计算能力。

2.6 相关模型链接

选择适合的显卡和配置,可以在本地高效地运行这些中文大语言模型。

  • 13
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值