win10 安装flash-attn2 问题解决

文章讲述了用户在安装Flash-Attention时遇到的问题,包括pip安装失败、CUDA版本不匹配、以及依赖库的安装过程。最终发现Flash-Attention2.3.2版本后支持Windows,推荐使用预编译的whl包成功解决了问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

GPU getforce RTX 3060Ti  使用 pip install flash-attn --no-build-isolation 一直报错,期间检查了pytorch 版本(2.2.2),cuda版本(12.1和12.2都试了),visual studio版本(2022),确认attn2是否支持win10,都没有问题,然后尝试使用git clone https://github.com/Dao-AILab/flash-attention 源码安装(其实是一回事),也报错,最后查找资料:

不久前Flash-attention 2.3.2 终于支持了 Windows,推荐直接使用大神编译好的whl安装

github.com/bdashore3/flash-attention/releases
stable diffusion webui flash-attention2性能测试

安装环境:

0、flash-attention 2.0 暂时仅支持30系及以上显卡

1、pytorch2.1 + CUDA12.2 *需要单独安装cuda12.2,pytorch官网只有cu12.1

2、Visual Studio 2022 生成工具 使用c++的桌面开发 + 适用于最新v143生成工具的ATL

用开始菜单中的 x64 Native Tools Command Prompt for VS 2022命令行,切换到对应的python venv环境下

命令:*对内存大小有自信的MAX_JOBS可以大一点

git clone https://github.com/Dao-AILab/flash-attention

cd flash-attention

pip install packaging

pip install wheel
set MAX_JOBS=4
python setup.py install 作者:无节操の网管 https://www.bilibili.com/read/cv27137329/ 出处:bilibili

还是使用大神编译好的whl安装成功了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值