flash-attn安装报错ERROR: Could not build wheels for flash-attn, which is required to install pyproject

安装flash-attn时build报错,或者即使安装成功,但却import不进来,可能是你安装的flash版本不一致!导致flash-attn安装错误。

可在下面的网页上下载对应版本的离线包再安装:

https://github.com/Dao-AILab/flash-attention/releases/

  • 报错1

我build时的报错信息如下:

Failed to build flash-attn 
ERROR: Could not build wheels for flash-attn, which is required to install pyproject.toml-based projects

  • 报错2

以及我换了其他不合适的版本即使安装成功后,在import的过程中报错:

ImportError: libcudart.so.11.0: cannot open shared object file: No such file or directory

网上找了一圈,怀疑可能是安装的版本不对。

上面贴的网页里面releases了很多版本,找到与自己环境匹配的版本下载,比如我的环境是:

  • python3.10

  • cuda_11.7

  • torch 2.0

下载的版本为:flash_attn-2.3.5+cu117torch2.0cxx11abiFALSE-cp310-cp310-linux_x86_64.whl

注意:cxx有True和False两个版本,可以都试一下。我用的是cxxFALSE版本。

下载完之后,使用以下命令进行安装:

pip install flash_attn-2.3.5+cu117torch2.0cxx11abiFALSE-cp310-cp310-linux_x86_64.whl --no-build-isolation

问题解决!

Reference:

https://github.com/Dao-AILab/flash-attention/issues/224

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值