来整活!用 AI 预测《黑神话:悟空》最终 Boss

啊,网传不到 24 小时《黑神话:悟空》速通结局已经释出,天命人最终戴上金箍拜入佛门,被规则和金箍所操控,等待下一个天命人来继续轮回。

但有的网友不干了,表示速通就注定只能坏结局,天命人哪是那么容易屈服的;

有网友表示不能接受,猜测应该会有好几个结局吧,毕竟他还只打到黑熊那儿。。。

无论怎么样,最近广大网友投入了上班做真马喽,下班做黑马喽的热血生活~

图片

在屏幕前的你是否也在好奇,九九八十一难,最大的那个boss到底长啥样?Neolink.AI 的小伙伴用 AI 预测一波最终boss形态:

本文手把手教学如何实现预测教程~

本文字数:7000字+

阅读时间:8分钟+Part 1

预热

  1. https://neolink-ai.com/ 上挑选服务器并配置远程登录;

  2. 下载代码,创建 conda 虚拟环境并安装相关依赖。注册并登录后,进入控制台,选择创建实例:

图片

根据您的需求,选择相应的显卡:

图片

在这里我们为了庆祝《黑神话悟空》的发布,选择了超强的显卡H20!

全网最低价!https://neolink-ai.com/  H20 只要 4.8元/小时,4090低至 1.1元/小时

Part 2

ComfyUI安装

此步需要你将 ComfyUI 代码拉到我们的服务器上。如果你会 Git 请在 Terminal 运行以下代码,即可完成此步骤git clone:

https://github.com/comfyanonymous/ComfyUI

具体步骤可参考以下简单通用教程:

1. 打开 ComfyUI 项目 & 下载

打开 ComfyUI 的Github页面[https://github.com/comfyanonymous/ComfyUI],点击右上角的绿色按钮(下图1),并点击菜单里的「Open with GitHub Desktop」(下图2),此时浏览器会弹出你是否要打开 GitHub Desktop,点击「是」。

图片

2. 安装依赖

下载好代码后,需要安装依赖。

2.1 打开项目文件夹

2.2 打开终端

图片

2.3 输入命令

最后一步你需要在底部 Terminal 输入以下命令,并点击回车:

# 如果遇到网络问题看后面的 Q&Apip install -r requirements.txt

3. 启动服务

不管你在上一步是用 VS Code 运行,还是在 Terminal 里运行,你都可以继续输入以下代码:

  python main.py

图片

你应该能看到以下界面。恭喜你,ComfyUI 已经安装好了。但此时还没法运行 Stable DIffusion 生图。你还需要下载关键的模型,在下一章我会教大家如何下载并安装所需的模型。

4. 将模型添加到对应的文件夹

进入到 Model 文件夹后,你会看到很多个文件夹,这些文件夹分别对应着不同的模型,你需要将你下载的模型放到对应的文件夹下。比如我们刚刚下载的是 Stable Diffusion v1.5 模型,属于 checkpoints 就需要将该模型放到 checkpoints 文件夹下。

4.1 打开 ComfyUI 项目文件夹

图片

4.2 将模型添加到对应的文件夹

进入 Model 文件夹后,你会看到多个文件夹,这些文件夹分别对应不同的模型类型。你需要将下载的模型放入相应的文件夹中。例如,刚才下载的 Stable Diffusion v1.5 模型属于 checkpoints 文件夹,因此应将其放入该文件夹中。接下来我们会介绍其他类型的模型,你需要将它们放入对应的文件夹中,例如CLIP-ViT-H-14-laion2B-s32B-b79K的clip模型放在clip中。

图片

🎉 恭喜你,又完成了一个重要的步骤,接下来我们就可以正式进入 ComfyUI 基础篇的学习了。

5. ComfyUI -  IPAdapter (SDv1.5 Version)

我们选择使用IPAdapter 做我们这期课的教程,IPAdapter 接受一张图像作为输入,将其编码为Token,并和标准的提示词输入混合作用于图像的生成。

5.1 安装插件 ComfyUI_IPAdapter_plus

https://github.com/cubiq/ComfyUI_IPAdapter_plus.git

将该仓库下载或通过 git clone 到 ComfyUI/custom_nodes/ 目录下,或者使用管理工具。请确保 IPAdapter 始终使用最新版本的 ComfyUI。

目前该插件支持的模型有以下:

  • clip_vision 视觉模型:即图像编码器,下载完后需要放在 ComfyUI /models/clip_vision 目录下;

  • P-Adapter 模型:下载完后需要放在/ComfyUl/models/ipadapter 目录下;

  • Clip 模型:下载完后需要放在 /ComfyUI/models/clip 目录下;

  • Lora 模型:下载完后需要放在 /ComfyUI/models/loras 目录下。

请注意版本哦,其中名字带有 sd15 适用于 sd15 大模型,带有 sdxl 的适用于 sdxl 大模型;其中名字带有 vit-h 的使用 ViT-H 视觉编码器,名字带有 vit-G 的使用 ViT-G 视觉编码器;SDXL 大模型默认使用 ViT-G,SD15 大模型默认使用 ViT-H。

5.2 基础工作流

图片

我们先从基础工作流开始,我们只使用 IPAdapter 引导图像扩散,而不使用提示词。

 5.2.1 节点介绍 

其主要在文生图的工作流上添加了以下几个节点:

 #1. IPAdapter Advanced(应用IPAdapter(高级))

作用:读取并转换图像特征。

输入

  • model:接受 Unet 模型的输入;

  • ipadapter:接受 ipadapter 模型;

  • image:接受图像的输入;

  • image_negative:接受负面图像输入,简单说就是传入不想要的元素。比如说我们不想要参考图的某种颜色,我们就可以将有该颜色的图片传入到 image_negative 中;

  • attn_mask:接受图像遮罩,收到后,只会识别图像遮罩的部分;

  • clip_vision:接受视觉编码器模型输入。

参数

  • weight:参考权重;

  • weigth_type:IPA的权重类型;

  • combine_embeds:图像特征和其他问题提示词的组合方式;

  • start_at:作用开始时间;

  • end_at:作用结束时间;

  • emdeds_scaling:;

输出:

  • model:输出经过 ipadapter 引导的大模型。

 #2. IPadpter Model Loader 

作用:IPadpter模型加载器。

 #3. Load CLIP Vision 

作用:CLIP视觉模型加载器。

图片

 #4. Image_negative 插件 

当然,我们还可以通过使⽤ image_negative 输⼊图像,以减少过拟合并使画⾯更加平滑。我们需要在原有的⼯作流中添加⼀个 IPAdapter Noise 节点,该节点会接收原始图像,将其翻转并添加噪声,然后将处理后的图像输⼊到 image_negative 中,从⽽对图像进⾏进⼀步的去噪和重绘。

图片

图片

输入:

  • image_optional:接受原始图像输⼊。

参数:

  • type:原始图像的类型;

  • strength:添加的噪波强度;

  • blur:输⼊图⽚的模糊程度。

输出:

  • image:添加噪波的图像。

图片

 #5. 多张输⼊图像的参考 

IPAdapter 能够同时参考多张图⽚的⻛格。借助 Batch Images(图像组合批次)节点输⼊多张参考图。我们以六个⼩boss为元素,想着合成⼀个具有它们六个邪恶属性的中级boss。

图片

如果想看看所有boss 最终会进化成什么boss,欢迎小伙伴们自己动手尝试哦~

  • 4
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值