[Question] ImportError: cannot import name ‘LlavaLlamaForCausalLM’ from ‘llava.model’ (/root/LLaVA/llava/model/init.py) #1208
文章参考链接https://github.com/haotian-liu/LLaVA/issues/1208
基本上还是flash-attn和环境不适配的原因,最初我的cuda版本是12.4,后来改成12.1,反复重新构建虚拟环境,采用官方给的代码进行安装,最后终于成功
官网地址:https://github.com/haotian-liu/LLaVA
经过大部分人认可的是这两句:
pip uninstall flash-attn
pip install flash-attn --no-build-isolation --no-cache-dir
但根据我重装的经验,还是找个别人安好的环境对着版本配
最后放一个pytorch官网链接,从里面可以看到pytorch和cuda对应版本
https://pytorch.org/get-started/previous-versions/