llama.cpp 部署 llama-2-7b 测试 Llama 2

本文介绍了如何在Ubuntu 20.04环境下部署FacebookResearch的LLAMA 2-7b模型。首先从GitHub下载模型及相关文件,接着克隆llama仓库并安装Python依赖,然后执行download.sh脚本。随后,克隆llama.cpp仓库,通过make命令安装依赖,并在models文件夹中创建7B目录,拷贝模型文件并使用convert.py将其转换为ggml FP32格式。最后,对模型进行量化处理,将其减小到4G大小,以便于推理操作。
摘要由CSDN通过智能技术生成

首先进入这里
https://github.com/facebookresearch/llama

 点击下载

填写注册信息

 接受后继续

 上面的按钮点击后,应该邮箱就收到链接了,几乎是很快的

把下面的链接复制后备用,注意24小时后会失效

提前先了解一下有3种模型

7b  13b  70b  

7b就是有70亿参数,文件夹里面有3个文件

其中最大的是模型文件有13G

外面还有分词器清单和分词器模型文件

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值