FlashAttention CUDA不匹配问题(CUDA的正确安装)与编译卡住问题解决方法

在安装flash_attn的过程中,遇到了FlashAttention is only supported on CUDA 11.6 and above问题,即 CUDA 版本不匹配,但是通过nvidia-smi的指令,又能从界面上看到版本是 12.2在这里插入图片描述
所以重新梳理了一下,大概是这样的:

  • Falsh attn 对CUDA版本(即CUDA Tookit)有要求,且是 11.6 及以上
  • Nvidia-smi 看到的版本是 gpu driver 的适配版本,不是CUDA实际版本,实际版本以nvcc -V指令的显示为准(这里是在 ~ ./bashrc 文件中中进行了映射了的)
  • 所以根据报错,需要重新安装 CUDA Tookit 即可,驱动目前是符合的,不需要重新安装

那么,

修复方式:

1.重新安装CUDA,推荐流程: CUDA的正确安装/升级/重装/使用方式

2.重新 nvcc -V指令查看,

在这里插入图片描述

3.重新安装 flash_attn

(没装ninja需要安装这个,:pip install ninja -i https://pypi.tuna.tsinghua.edu.cn/simple

4.(发现后续还遇到了问题…)

Building wheel for flash-attn 太久了,查了下,应该跟版本有关系,自己手动选配一下版本:https://github.com/Dao-AILab/flash-attention/releases/

比如我的:在这里插入图片描述
复制下载地址:在这里插入图片描述
wget https://github.com/Dao-AILab/flash-att_xxxx-linux_x86_64.whl 替换一下
然后 pip install xxxx.whl 手动安装,完成
在这里插入图片描述

其他相关

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值