安装flash-Attention报错的解决 编译flash-attn,python setup.py install

sudo docker run --gpus all -it --rm nvcr.io/nvidia/pytorch:24.06-py3

sudo docker run --gpus all -it --rm nvcr.io/nvidia/pytorch:24.06-py3 

sudo docker run --gpus all -it --rm nvcr.io/nvidia/pytorch:24.06-py3
Unable to find image 'nvcr.io/nvidia/pytorch:24.06-py3' locally
24.06-py3: Pulling from nvidia/pytorch
a8b1c5f80c2d: Pulling fs layer
9c2a63d09670: Pulling fs layer
4f4fb700ef54: Pulling fs layer
c78c58a0000d: Waiting
ea63eb298c69: Waiting
aec371ddf6d1: Waiting
1925a16db8f6: Waiting
5767e2819d1e: Waiting
93fab9cd076a: Waiting
6bc5fc3bcef3: Waiting
a113fe9770cd: Waiting
aec371ddf6d1: Downloading [======>

编译flash-attn

[17/49] /usr/local/cuda/bin/nvcc --generate-dependencies-with-compile --dependency-output /data/zengzijian/Projects/InternVL-v2.0.0/flash-attention/build/temp.linux-x86_64-cpython-312/csrc/flash_attn/src/flash_fwd_split_hdim32_bf16_sm80.o.d -I/data/zengzijian/Projects/InternVL-v2.0.0/flash-attention/csrc/flash_attn -I/data/zengzijian/Projects/InternVL-v2.0.0/flash-attention/csrc/flash_attn/src -I/data/zengzijian/Projects/InternVL-v2.0.0/flash-attention/csrc/c
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

强化学习曾小健

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值