在使用tinyllava时,需要安装flash_atten库,直接pip install flash_atten安装出现无法安装且安装速度慢的情况,下面是解决方案。
1. 查询对应版本(cuda,python等),直接下载对应whl文件。地址: https://github.com/Dao-AILab/flash-attention/releases?page=5
2. 安装,这里我选择abiFALSE版本的才安装成功。
pip install xxx.whl
在使用tinyllava时,需要安装flash_atten库,直接pip install flash_atten安装出现无法安装且安装速度慢的情况,下面是解决方案。
1. 查询对应版本(cuda,python等),直接下载对应whl文件。地址: https://github.com/Dao-AILab/flash-attention/releases?page=5
2. 安装,这里我选择abiFALSE版本的才安装成功。
pip install xxx.whl