Tesla T4部署llama2 atom中文chat模型踩坑盘点

本文讲述了作者尝试部署Meta的Llama2中文问答模型时遇到的各种问题,涉及CUDA版本过旧、PyTorch和Transformer版本兼容性、以及显卡限制等,最终因显卡架构限制导致的版本升级问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

概要

最近看到meta出的llama2,然后准备试试中文问答的能力,在git的中文社区找到了一个叫atom-7b的微调模型,在c-eavl排行榜上的能力看起来非常强(刚看了一眼,已经没了),准备下载下来跑跑,记录一下各种踩到的坑。

本文没有成功跑起来,没有成功跑起来,没有成功跑起来
在这里插入图片描述

部署环境

操作系统:centos7.9
显卡:Tesla T4 * 2
`

模型下载

git中文社区:https://github.com/FlagAlpha/Llama2-Chinese
huggingface模型:https://huggingface.co/FlagAlpha/Atom-7B-Chat
由于需要往服务器上上传,并且服务器带宽不足,这个过程真是相当痛苦了,把从huggingface模型文件夹下的文件全部下载再上传到服务器

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值