如何在国内下载llama模型

由于项目需求要下载llama模型,本来觉得这是个很简单的事情,直接去huggingface上下载就行,但是没想到遇到了重重问题,于是写下这篇博客记录一下,希望对别人也有帮助!

刚开始搜到的教程是官方给出的,先去https://llama.meta.com/llama-downloads/申请一个URL,再下载GitHub的脚本进行下载,但是我实操之后总是在下载过程中返回403forbidden,所以感觉这条路行不通,所以只能试一下通过huggingface能不能下载。
在这里插入图片描述

在这里插入图片描述

下载hf模型的几种方法

这里总结的很全面,可参考:链接。还有这里没提到的就是通过命令行中的huggingface-cli download命令,下面会详细介绍使用。

但是国内由于防火墙的原因,不能直接访问huggingface网站,所以一般都用https://hf-mirror.com/,和从hf下载的方法一样,唯一的区别就是在下载之前设置一下,比如Linux就是export HF_ENDPOINT=https://hf-mirror.com

然后运行如下命令:

huggingface-cli download --resume-download meta-llama/Llama-2-7b-chat-hf --local-dir Llama-2-7b-chat-hf/ --local-dir-use-symlinks False --resume-download 

--local-dir改成自己的本地路径,meta-llama/Llama-2-7b-chat-hf也可以换成其他想要下载的模型id

到这里还是不行,因为llama模型需要申请才能使用,也就是在hf上面要申请,点击这里的Expand to review,就会有一个表单,要填写姓名,地区之类的,地区不要选China,我是选了US,因为我的VPN挂了US的,10分钟左右就通过了。
在这里插入图片描述
通过之后就是这样的
在这里插入图片描述
然后再点右上角的头像图标,点击setting,进入这个页面,再点击access tokens,
在这里插入图片描述
没有token的话就新建一个token(记住复制完之后要保存在某个地方,叉掉那个页面就看不到了!)然后运行如下命令:

huggingface-cli download --resume-download meta-llama/Llama-2-7b-chat-hf --local-dir Llama-2-7b-chat-hf/ --local-dir-use-symlinks False --resume-download --token xxx

终于开始下载了!
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值