- 博客(6)
- 收藏
- 关注
原创 Flash-attn 安装
flash-attn 安装conda安装nvccconda install nvidia/label/cuda-11.8.0::cuda-nvcc去GitHub查看release,拷贝相对应的链接Pip 安装pip install https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.9.post1/flash_attn-2.5.9.post1+cu118torch2.3cxx11abiFALSE-cp31
2024-07-04 11:13:19
223
原创 xformers 安装相关问题
xformer直接pip install 需要最新版本的pytorch,从。可推算出各个pytorch版本对应的xformers版本。
2024-06-17 11:17:19
460
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人