用 llama.cpp 跑通 mixtral MoE 模型

这里是 用 llama.cpp 跑通 mixtral MoE 模型 视频的笔记哦。

主要命令

  1. 安装 huggingface_hub: pip install huggingface_hub -U
  2. 下载模型 huggingface-cli download TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF mixtral-8x7b-instruct-v0.1.Q4_K_M.gguf —local_dir $PWD —local_dir_use_symlinks=False
  3. 编译 llama.cpp LLAMA_CUBLAS=1 make -j10
  4. 运行 ./main -m ~/autodl-tmp/mixtral-8x7b-instruct-v0.1.Q4_K_M.gguf -ngl 999 --color -i -cml -p prompts/chat-with-qwen.txt

相关链接

  1. https://mistral.ai/
  2. https://huggingface.co/docs/huggingface_hub/guides/download
  3. https://github.com/ggerganov/llama.cpp
  4. https://huggingface.co/TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF
  • 8
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值