真的会被LLaMa-Factory这个错误给气死。后来发现是我安装的transfomer版本太低了
首先按照网上帖子,把自己模型的config.json里面的torch_dtype改成了float16,然后,错误还是出现。后来把transformer的版本改到了4.40.0 就能正常运行了。
我的cuda是117,torch是1.13.0。
真的会被LLaMa-Factory这个错误给气死。后来发现是我安装的transfomer版本太低了
首先按照网上帖子,把自己模型的config.json里面的torch_dtype改成了float16,然后,错误还是出现。后来把transformer的版本改到了4.40.0 就能正常运行了。
我的cuda是117,torch是1.13.0。