flash attention一直无法启用的问题

 大佬们,安装flash attention后,我用代码检测我的版本号:

import flash_attn
print(flash_attn.__version__)  # 查看 Flash Attention 的版本

 结果为:

2.7.0.post2

安装包是大佬发布的:Releases · bdashore3/flash-attention

我的cuda,torch,Python的型号分别为:

cuda = 12.4
torch= 2.5.1
python = 3.12

安装的红框里面的whl文件,参考的是这一篇文章:Windows系统安装flash-attn速度非常慢解决方法_flash-attn windows-CSDN博客

现在也不知道为什么,就还是报警:

D:\Worksoftware\Anaconda3\envs\py312_CUDA12_pytorch241\Lib\site-packages\torch\nn\functional.py:5560: UserWarning: 1Torch was not compiled with flash attention. (Triggered internally at C:\cb\pytorch_1000000000000\work\aten\src\ATen\native\transformers\cuda\sdp_utils.cpp:555.)
  attn_output = scaled_dot_product_attention(q, k, v, attn_mask, dropout_p, is_causal)

求助一下,孩子要被这个transformer计算速度折磨到崩溃了

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值