LLAMA模型部署与一些关键定义

llama模型

LLAMA来源与Meta的开源大模型,截止到20230720,已经有第二个版本面世,第二个版本已经支持免费商业化,所以学习llama模型无论是自我提升,还是创业都有很大的基础保障。
一些个人的观点:笔者一度觉得Meta在元宇宙领域决策的失误,可能带来一系列的灾难后果,但当前从大模型来看,Meta可能又要站在了AI的头部。你不得不去佩服扎克伯格对于未来的精准把控。

基础知识讲解

这个有很长的路要走,当前先不讲了,后面开一个专题讲讲。

环境部署

首先在conda里面构建自己的工作环境

生成一个新的kernel环境

conda create -n py3 python=3 # 创建一个python3的环境,名为py3
source activate py3 # 激活py3环境 有可能报错,执行source activate 后再执行 conda init activate
conda install ipykernel # 安装ipykernel模块
python -m ipykernel install --user --name py3 --display-name "py3" # 进行配置
jupyter notebook # 启动jupyter notebook,然后在"新建"中就会有py3这个kernel了 

在bash中切换到这个环境

# 查看conda中有哪些环境
conda env list
# 如果说activate不存在,则执行source activate 后再执行 conda init activate,再执行如下命令
conda activate py3

Llama部署

克隆项目

git clone https://github.com/pengwei-iie/llama_bugs.git

安装相关包

cd llama_bugs
pip3 install -r requirements.txt

安装相关依赖包

pip3 install -e .

下载llama模型包

git lfs install
git clone https://huggingface.co/nyanko7/LLaMA-7B

命令行执行

torchrun --nproc_per_node 1 example.py --ckpt_dir ./LLaMA-7B --tokenizer_path ./LLaMA-7B/tokenizer.model

其中

  • ckpt_dir 是指模型文件存放的文件夹名称
  • tokenizer_path 是指分词器所存放的文件夹位置
  • nproc_per_node:nproc_per_node=4:表示每个node上节点有4个process,llama-7B每个节点上只有一个process
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值