网上的主流方法(踩坑)
法1:huggingface
问题:需要连接mo法;需要申请许可
法2:huggingface镜像版
问题:需要申请许可
法3:huggingface本地下载
问题:浪费mo法流量;下载的文件可能有损失
走了很多坑,下面教大家一个简单的下载方法,只需要两个步骤,就可以安装成功啦(受一位大佬的点拨)
2步下载llama-2-7b-chat-hf大模型
一、准备工作,从modelscope找到目标LLM的具体路径
https://www.modelscope.cn/home
1.找到你想下载的LLM大模型,以llama-2-7b-chat-hf为例.https://www.modelscope.cn/models/shakechen/Llama-2-7b-chat-hf
2.复制LLM的具体路径名称,如图所示,例:shakechen/Llama-2-7b-chat-hf。
二、在anaconda pormpt命令行窗口上运行以下两条命令
1.安装modelscope
pip install modelscope
2.下载LLM大模型
modelscope download --model shakechen/Llama-2-7b-chat-hf --local_dir ./autodl-tmp/Llama-2-7b-chat-hf
其中,包括两个路径,一个路径是LL模型路径--model
,一个路径是保存LLM路径--local_dir
。–model`即为步骤一中的LLM路径。
注意:要提前预留好一定的存储空间(llama-2-7b-chat-hf需要26GB左右的存储空间)
等待半小时左右,下载完成。
是不是超级简单?没有任何让你踩坑的余地!!!!!