conda 环境安装踩坑日记-2024-07-04

torch2.3.0环境安装记录

同时安装 xformers, vllm, vllm-flash-attn, flash-attn 在一个环境中

  1. 新建conda环境
conda create -n torch2.3 python=3.10
conda activate torch2.3
  1. 安装 pytorch2.3.0 + cuda12.1
    这里一定要是cuda12.1cuda11.8 踩过坑了,后面安装vllm麻烦的一批
pip install torch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 --index-url https://download.pytorch.org/whl/cu121
  1. 安装 xformers
    xformers默认是cuda12.1 版本,这里正常安装即可,参考
pip install xformers==0.0.26.post1
  1. 安装 flash-attn
    这玩意需要依赖cuda编译,所以需要conda安装cuda-nvcc,但是官网只有cuda11.8和cuda12.2版本,这里我们安装cuda12.2版本,问题就出在这,之前想着cuda版本都对应,所以安装了cuda11.8版本,后面就各种报错,参考
    求官方GitHub找对应的release,复制链接
conda install nvidia/label/cuda-12.2.0::cuda-nvcc
pip install https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.9.post1/flash_attn-2.5.9.post1+cu122torch2.3cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
  1. 安装 vllm
    参考官方文档,vllm默认也是cuda12.1,这里我们为了详细说明,还是从GitHub下载
pip install https://github.com/vllm-project/vllm/releases/download/v0.5.0.post1/vllm-0.5.0.post1-cp310-cp310-manylinux1_x86_64.whl

如果在vllm想用flash-attn,还得再安装vllm-flash-attn,去pypi release看,下载对应版本

# pytorch2.3.0, cuda12.1
pip install vllm-flash-attn==2.5.9
  1. deepspeed 有问题,先不安装
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值