Stable-diffusion安装时Can‘t load tokenizer for ‘openai/clip-vit-large-patch14‘问题解决

Can’t load tokenizer for 'openai/clip-vit-large-patch14’问题解决.

如果你在安装stable-diffusion的时候遇到了这个问题,可以下载本博客的绑定资源,然后修改项目中的文件地址就可以了。

例如报错:
在这里插入图片描述
这是因为hugginface现在被墙了,所以直接下载无法下载。

解决办法

首先创建一个文件夹,将本博文中下载的资源放进去,包括6个json文件,一个txt和一个md文件。
在这里插入图片描述
然后查看报错信息,找到报错信息对应的文件地址
例如我这个报错信息就去文件/stable-diffusion-web ui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py修改(需要修改的地方都在mudules.py中,但是应该有两个不同地址的modules.py需要修改)在这里插入图片描述
然后在module.py中搜索openai,在version=“openai/”修改为你对应的文件夹地址(注意是文件夹的地址),应该是一共需要修改4个地方,两个mudules.py文件各两处。
在这里插入图片描述这样就可以解决啦

提示:这里对文章进行总结:

简单记录下自己在linux服务器上部署stable-diffusion遇到的问题,希望可以帮助你。

评论 17
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值