Llama3 本地部署 CPU进行推理

Llama3 本地部署 进行推理

下载模型

  • https://llama.meta.com/llama-downloads

提交邮件就能申请,在官方GitHub仓库下载示例代码进行使用。

https://github.com/meta-llama/llama3

GPU推理

Llama3默认是开启组并行推理,所以需要显卡来运行,参考官方示例很容易便完成的运行。

  1. 加载llama模型,
  2. 构造prompt
  3. 输入llama模型得到结果
  4. 处理结果
def main(
    ckpt_dir: str,
    tokenizer_path: str,
    temperature: float = 0.6,
    top_p: float = 0.9,
    max_seq_len: int = 128,
    max_gen_len: int = 64,
    max_batch_size: int = 4,
):
    generator = Llama.build(
        ckpt_dir=ckpt_dir,
        tokenizer_path=tokenizer_path,
        max_seq_len=max_seq_len,
        max_batch_size=max_batch_size,
    )
    
    prompts: List[str] = [
        """Translate English to Chinese:

        cheese =>""",
    ]
    results = generator.text_completion(
        prompts,
        max_gen_len=max_gen_len,
        temperature=temperature,
        top_p=top_p,
    )
    
    for prompt, result in zip(prompts, results):
        print(prompt)
        print(f"> {result['generation']}")
        print("\n==================================\n")

CPU

既然Llama3是默认是开始GPU运行的,那我们能不能在CPU上部署运行,答案是能行的,只能需要改到代码。

  • fairscale里面的parallel全部退化为nn里面提供的
  • 代码里默认cuda,抽离其中的device,放到函数中
  • 退化过程中,某些参数进行删除,依据报错信息来
  • 去掉DDP

完成上述操作之后,就能在CPU上推理Llama3,我测试了下在A100服务器的CPU上推理一次大概1分钟。

  • 6
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值