🍬背景
在sd1.5时代,tile模型有太多种用法,增加画面细节,生成各种各样的质感文字,真人转动漫,动漫转真人,这些都是tile的用法,但是到了sdxl时代,tile模型迟迟没有人做,但是最近发现终于有人更新sdxl版本的tile模型了,而且webui可用,所以就简单讲讲如何使用,并测试下具体效果;
✨地址
下载地址:https://huggingface.co/TTPlanet/TTPLanet_SDXL_Controlnet_Tile_Realistic
国内镜像地址:TTPlanet/TTPLanet_SDXL_Controlnet_Tile_Realistic at main
🎆使用方法
其实非常简单,只需要将新下载的tile模型放在webui的extensions下的controlnet下的models文件夹下即可;
然后回到webui,更新下controlnet版本到最新。
之后就可以正常使用了。
🧶效果测试
先测试一张美女的照片,下载一张模糊的素材:
通过tile放大两倍,效果还可以,没有特别明显的变形:
测试方法:
图生图,选择一个写实类的sdxl模型:
大模型我这里测试用的是:realisticStockPhoto_v10,一款比较通用的写实类模型,如果还没有的话可以到这里下载:
还有几个sdxl写实类的模型也不错:
如果想要摄影质感强一点的,也可以试试:
提示词需要跟画面强相关,测试的时候发现提示词对画面的影响还是很大的,所以这里还是要认真一点写:
a woman standing beside a stone wall next to a stone staircase, looking at the camera, Aramenta Dianthe Vail, portrait photography, a character portrait, american barbizon school
上传图像并选择合适的采样方法:
图像我这里放大了2.5倍,实际上大家可以根据自己显卡的体质选择合适的放大倍数,注意重绘部分开到0.3最有即可,因为这里不期望画面变化太大,所以设置的小一点。
controlnet的部分参数设置如下:
注意几个点:
1、控制权重需要降低一些,根据实际测试,如果用默认的1,生成的结果大概率是不能看的;
2、终止引导时机可以适当缩小一点,给ai一些发挥的空间,不过不是特别关键;
3、down sampleing rate,向下采样这里可以设置高一点,对于模糊的图像还原效果反而更好,或许跟训练集本身有关?
✨✨✨如果对于基础的webui还不太了解,建议继续往下看✨✨✨
去年的时候写了两门比较基础的Stable Diffuison WebUI的基础文字课程,大家如果喜欢的话,可以按需购买,在这里首先感谢各位老板的支持和厚爱~
✨StableDiffusion系统基础课(适合啥也不会的朋友,但是得有块Nvidia显卡):
https://blog.csdn.net/jumengxiaoketang/category_12477471.html
🎆综合案例课程(适合有一点基础的朋友):
https://blog.csdn.net/jumengxiaoketang/category_12526584.html
这里是聚梦小课堂,就算不买课也没关系,点个关注,交个朋友😄