书生·浦语社区常见问题及解答

本文解答了关于书生·浦语社区中elasticsearch模型的资源需求,包括GPU资源、模型下载、Prompt Template、模型支持长度等问题。针对模型部署,指出3090显卡可以满足部分需求,全量微调需8卡A100。模型量化后在gsm8k数据集上的效果与未量化模型相当。此外,还介绍了如何正确下载和使用模型,以及遇到的错误解决方案。
摘要由CSDN通过智能技术生成

1. 资源耗费问题

 20B 模型部署、低成本微调和全量微调大概需要多少的 GPU 资源?

模型部署:3090 等 24G 显卡能够顺畅的使用 LMDeploy 对 internlm-20b 进行 4 bit 量化和部署推理,在不量化的情况下推理大概需要 50G 左右的显存,可用单卡 A100 或者四卡 3090 进行推理部署。

低成本微调:使用 XTuner 中的实现的 QLora 方法对 20B 模型微调,24G 的 3090 显卡能满足基本需求,但是在模型 Merge QLora 权重和原始权重阶段显存占用会超过 40G,可以考虑使用显存更大的卡(如单卡 A100 或者四卡 3090),或使用 offload (--offload-folder)技巧将模型加载至内存或硬盘。在前期学习阶段建议使用 internlm-7b 在 3090 等 24 G 显卡上进行实验测试。

全量微调:8 卡 A100 基本能满足 internlm 20b 模型的全量微调需求。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值