Midjourney入门

本节课程,将正式开启midjourney的学习之旅,本节课我们会简单介绍一下midjourney,让大家对midjourney有个基本的认识,我们也会讲述使用midjourney的基本方法以及midjourney的订阅规则,然后我们会对midjourney的常用指令以及常用参数一一讲解,学习完本节课程,大家应该就能很快上手midjourney,将这个强大的AI绘画服务加入到自己的生产力工具库中来。

一:什么是AI绘画?

我们先聊一聊什么是AI绘画?

AI绘画是利用人工智能技术来创建图像或艺术作品的过程。通过特定的人工智能算法阅读并学习了大量的图像集中的图片特征,AI程序可以理解不同的艺术风格、图案、颜色和形状,并根据给定的提示或输入生成视觉内容。区别于人类一笔一画的勾勒图像的方式,AI绘画工具可以根据简短的描述、关键词或基于现有的图像来自动创造新的视觉作品,这些作品可以是全新的创意,也可以是模仿特定艺术风格或艺术家的作品。

在AI绘画领域,有两个工具是必须了解的,一个是midjourney,一个是stable diffusion, 这两个AI绘画工具都是将人工智能应用到绘画领域的杰出产品。

二:认识Midjourney

Midjourney是一款由总部位于旧金山的独立研究实验室Midjourney, Inc.所创建和托管的在线人工智能程序和服务。用户在无需专业技术技能的情况下就可以创建出独特且高质量的图像。Midjourney基于Discord平台提供服务,我们可以在Discord平台通过聊天界面以对话的形式发送指令,然后由后端的服务程序midjourney bot接收指令并分发到背后的GPU资源池经过运算处理,最后在线生成图像。Discord平台提供了网页端,桌面客户端和移动APP端程序,我们可以自由选择其中的一种来进行操作。

我们通过对话的形式引导midjourney bot生成想要的图片,,主要有两种模式,一种是根据自然语言描述也就是我们通常所说的“提示”来生成图像,我们输入文字描述,结合参数,引导AI机器人绘制图片。

另外一种是采用图片+文字的方式,我们需要提供参考图片,然后输入文字描述,结合参数,进而引导AI机器人绘制图片。

midjourney与stable diffusion二者在底层原理上是类似的,他们都采用了diffusion model扩散模型,在生成图片的过程中会经历加噪和去噪的过程,所以我们会看到midjourney在成图时会经历从模糊的图片一步一步还原出清晰图片的过程。

midjourney可以帮助我们做哪些事情呢?

在实际的应用中,我们只需要通过文字描述我们的需求,midjourney便能提供无限的构图与创作灵感。

midjourney无限的构图灵感可以帮我们制作精美的产品设计图,服装设计图,室内设计图,Logo设计图,宣传册。

他还可以帮助我们优化设计,例如利用图生图的功能,midjourney可以在原有的设计基础上添加更多的创意。

通过特定的提示词引导,midjourney能帮我们生成具备鲜明风格的艺术设计、素描和绘画作品。还能进行漫画人物、游戏人物与场景的创作。

我们在学习chatgpt课程的时候也有提到过,在进行自媒体文章创作,文案写作,PPT制作的过程中,同样可以利用AI绘画工具如midjourney帮我们生成与内容相关的配图,省去我们找图的时间以及避免图片版权问题。

三:Midjourney使用

midjourney如此强大,接下来我们就来好好学习一下如何去使用他?

使用midjourney可以通过浏览器网页,桌面客户端,移动端app,三者的使用过程类似,只是载体不一样,我们的课程中均以浏览器网页的方式来做演示。

之前有说到Midjourney基于Discord平台提供服务。所以我们需要访问discord的官方主页https://discord.com,。连接好网络后,我们便可以通过浏览器打开https://discord.com官方网址。

使用dicord需要先注册账号,注册账号的过程很简单,点击右上角的login按钮,打开登录页面,如果没有账号,点击登录按钮下方的“注册”链接即可打开注册页面,输入邮箱地址,用户名,密码等信息提交,提交后,注意还需要进入注册时使用的邮箱,discord会发送验证邮件到注册邮箱,点击邮件中的验证地址即可完成注册。完成注册后使用对应的账号即可登录discord。discord对国内用户而言可能会有些陌生,国内目前也还很难找到能与discord比肩的类似产品。Discord早期是为解决玩家交流问题而开发的一个在线语音聊天软件,而现在Discord已经发展为综合性社区,midjourney也是通过discord的社区属性,为midjourney众多爱好和追随者提供信息与服务。

我们在Discord上使用midjourney前,需要执行一些操作:

在浏览器上登录discord后,左侧菜单点击“+”号,

创建服务器,通常选择“仅供我和我的朋友使用”,

然后为服务器起一个名字,

点击创建即可,创建后,可以在左侧菜单看到刚刚创建的服务器,点击该服务器,然后点击顶部菜单右侧的成员图标,此时可以看到,该服务器只有自己一个成员,要使用midjourney,我们还需要将midjourney bot添加到我们的成员列表中,添加midjourney bot的方法有很多种,我们介绍其中一种方法,右键点击左侧菜单中对应的服务器,选择服务器设置,继续选择App目录,

打开App搜索页,搜索midjourney,通常搜索结果中的第一条就是midjourney bot,

点击进入,然后点击“添加至服务器”按钮,在弹出的菜单中选择需要添加到的服务器,这里我们选择刚刚创建的服务器,点击继续,选择授权,然后可能会打开验证不是机器人的窗口,验证完成后,即可添加成功,

可以点击前往“XX服务器”直接进入刚才创建的服务器主窗口,在成员列表中现在已经可以看到midjourney bot(机器人)成员。

加入midjourney bot(机器人)成员后,我们便可以在聊天输入框输入斜杠加命令的方式来与midjourney bot实现交互,在输入框输出斜杠会弹出很多命令提示,我们会在随后一一介绍这些命令的使用。

在使用midjourney之前,我们还需要订阅付费,因为midjourney并不是免费的服务,使用他需要支付服务费用。

我们在聊天窗口中输入”/subscribe",midjourney bot会回复一些信息,

点击其中的Mangage account便可以打开订阅服务页面,midjourney的订阅方案有几种:

包括Basic Plan基础版,该方案订阅费用是10美元/月,适合轻度使用,每月可以使用fast模式生成约200张图片

Standard Plan标准版 该方案订阅费用是30美元/月,可以使用15小时Fast模式时间,生成约1000张图片,并且该方案可以无限量使用relaxed模式生成图片

Pro Plan和Mega Plan 则需要分别支付60美元/月和120美元/月的费用,这两个订阅方案包含更长的Fast模式使用时间,分贝可以生成约2000张和4000张图片,同时也可以无限量使用relaxed模式生成图片,;另外这两个模式支持更多的并行fast模式任务,以及均可以开启隐私模式(隐私模式可以保证生成的图片不会被他人搜索到)

如果采用包年方式,会有一定折扣,通常是8折。

这里简单介绍一下fast模式,relax模式;fast模式适合想要更快地获取图像的用户。relax模式图像生成时间较慢,无需额外费用即可使用,但relax模式仅对标准版和专业版用户开放,基础版用户无法使用,也就是说基础版用户只能使用fast模式,fast模式时长使用完,就无法再生成图像,但标准版和专业版用户使用完fast模式时长后,还可以使用relax模式继续生成图片,只是生成图片过程需要等待较长时间。我们在使用midjourney时可以根据需要切换fast模式和relax模式,如何切换我们会在后续的课程中讲解。

我们可以根据自身的使用需求,选择合适的订阅方案,比如如果轻量使用,可以选择Basic Plan,如果达到限度,还可以额外购买使用时长,注意这里的时长指的是GPU时长,midjourney在生成图片时,需要使用GPU资源,消耗GPU算力,这也是midjourney需要计费的原因和基准,即基于GPU资源使用时长来计算费用。

还有需要注意的是,订阅付费时,我们平常使用的支付宝和微信支付是不支持的,我们需要有一张visa卡或者master卡,如果已有visa卡或者master卡,在支付时按照提示输入比如卡号,安全码,地址等信息即可成功订阅支付。如果没有visa卡或者master卡,可以自行上网搜索解决方法。

完成添加midjourney bot机器人以及购买订阅后,我们便可以开始通过与midjourney bot机器人交互的方式,引导midjourney bot帮我们自动生成图片。

四: 常用指令

如何引导midjourney bot帮我们自动生成图片呢,我们需要先学会一些常用的指令,然后在聊天窗口中输入这些指令,便可以指导midjourney bot完成绘图任务。

midjourney有很多指令,大家可以查看文档(演示文档地址),我们在这里主要讲解一些常用指令。

4.1: /imagine指令

首先是/imagine指令

这个是最重要的指令,绝大部分图片生成操作均是通过该指令完成,我们做一个简单的演示,

在聊天窗口输入/imagine点击回车,然后聊天窗口会提示输入prompt提示词,我们将图片的构思以提示词的方式告诉midjourney,点击回车,midjourney bot便会帮我们生成相关的4宫格图片

比如:我们输入提示词 “a beautiful asian girl, sandbeach, sea”。midjourney目前对英文的支持最好,所以我们一般还是输入英文提示词。我们在书写提示词时,可以借助翻译软件,比如使用百度翻译,将中文翻译成英文后,再提交到midjourney中。

提交后,midjourney会生成4宫格的图片,也就是先绘制了4副低分辨率的图片。

生成的4幅图片下方提供了U1-U4,V1-V4以及刷新按钮

U1-U4是放大按钮,分别对应4宫格中的4张图片,比如我们觉得4宫格的第二张图片比较满意,可以点击U2按钮,点击按钮后,midjourney会绘制出第二张图的高分辨率图片。

V1-V4是重新生成按钮,同样对应4宫格中的4张图片,比如我们希望基于第二张图片再生成四张类似的图片,我们可以点击V2按钮,点击按钮后,midjourney会基于第二张图重新绘制4张低分辨率的图片并生成4宫格图片。

如果4张图片都不满意,可以点击刷新按钮让midjourney帮我们继续生成。

我们继续看一看使用U2生成高分辨率图片后还能进行的操作。点击U2生成高分辨率图后,图片下方也会出现一些按钮,这些按钮提供了非常有用的功能。

Upscale提供了继续放大的功能,可以在大图的基础上继续提升至2倍分辨率

以下面的图片为示例

点击Upscale(subtle)该按钮放大后的图片基本与原图非常接近,点击后的效果如下

而Upscale(creative)按钮在放大时细节处理更加丰富,但有可能会与原图产生一些差异。点击后的效果如下

Vary按钮是指生成图片的变体,也就是基于原图再生成四张图片.

Vary(strong)生成的四张图相比原图变化比较大 ,点击后生成的图片如下:

vary(subtle)相比原图变化较小,点击后生成的图片如下:

   

Vary(region)则是对部分区域重新绘制,比如某张图片,我们觉得大部分是满意的,只需要对局部进行修改,可以点击Vary(region),然后框选期望修改的区域,点击submit提交

在实践中,Vary(region)局部重绘的过程可能还需要提示词的调整,我们会在下期课程中详细讲述。

Zoom Out是指将镜头拉伸,这样原图就成为新的画面中的一部分,我们可以点击

Zoom Out 2x将镜头拉伸到两倍距离,Zoom Out 1.5x将镜头拉伸到1.5倍距离,Custom Zoom可以自定义1-2倍的镜头拉伸倍数

下图是点击Zoom Out 2x后的效果

以上这些功能都非常有用,甚至可以迭代使用,比如我们可以使用Zoom Out无限拉伸图像。

另外,需要提醒的是midjourney支持不同的模型版本,我们也会在后面的课程中介绍这些模型版本,我们使用不同的模型版本生成大图后,下方的按钮会有一些区别。

比如midjourney 5.2版本生成的大图下方的Upscale按钮,分别是Upscale 2x和Upscale 4x,代表放大2倍和4倍。

5.1版本生成的大图下方的Vary,只提供了Make Variations和Vary(region)按钮。

我们刚刚演示的是midjourney生成图片的常用流程。可以看到,midjourney非常容易上手,我们只需要简单的提示词和一些操作,便可以生成质量不错的图片。

我们上面的演示是imagine指令最简单的用法,而imagine指令支持非常多的参数,在上述演示过程中,我们没有特别输入参数,此时,midjourney会使用默认的参数值或设置,/imagine的参数是非常重要的知识点,我们会在后续的章节中详细讲解。

熟练掌握midjourney,首先需要熟悉其相关的指令,接下来我们进一步剖析一些常用的指令。

4.2 /settings指令

除了imagine外,另外一个重要的指令是/settings

在聊天窗口输入/settings 回车。可以打开设置窗口,该窗口用于设置一些与生成图片相关的默认选项 。

   

比如这里可以设置默认使用的模型,

midjourney目前已经陆续推出了多个模型,包括 v1~v6,niji v4, niji v5,v6模型,v5.0 v5.1 v5.2,v6模型,其中niji模型是侧重于动漫和插图风格的模型,而V1-v6模型,版本号越大,则代表该模型越新,也意味着其越先进,生成的图片内容更加优秀。

模型列表下方是一些选项。

raw mode 代表midjourney在创作时减少一些主观上想法与因素,尽可能以提示词去创作图像,使用该模式,提示词对细节的描述需要尽可能详细。

stylize low ,medium, high ,very high,这四个选项用于调节图片风格化与艺术性的程度

比如stylize low生成的图片与提示会非常匹配,但缺乏艺术性。stylize very high创建的图片非常具有艺术性,但与提示词的关联则较少。

public mode开关隐身模式,这个选项只对pro专业版用户开放,如果你是基础版或事标准版,点击该按钮是无效的,会提示你需要升级订阅计划,

隐身模式是什么意思呢?Midjourney 是一个默认开放的社区,所有生成图像实际上都可以被其他人看到,包括在私人服务器、私信和 Midjourney后台中创建的图像。也就是你在midjourney上绘制的所有图片,其他人都可以搜索到,即使你是一对一生成,或是在自己建立的服务器中生成的图。但隐身模式除外,隐身模式可以保证,绘制的图片不会被放到社区图库。

remix模式是指在对已生成的图像进行二次重绘时,可以继续编辑Prompt提示词,这个操作等下会演示,简单点说,打开remix 模式后在使用V1-V4或vary按钮重新生成图片时,可以继续编辑Prompt。

“High Variation Mode”模式,用于设定在点击 V1-V4或vary 按钮生成变体时,使生成的4张变体图像差异更加明显;“low Variation Mode”模式则与之相反。

fast mode, relax mode 之前有提到,fast mode生成图片快但会消耗gpu时间计数,relax mode不会消耗gpu时间计数,但生成图片慢,relax mode对basic基础版用户是无效的,基础版用户点击relax mode会提示需要升级订阅计划.

除了fast模式,我们还可以选择Turbo模式,Turbo模式适用于想要快速生成图像的用户。Turbo模式使用高速GPU资源池。在Turbo模式下运行的图像生成速度是fast模式的四倍,但消耗的GPU时间计数通常是fast模式的两倍。

注意Turbo模式仅适用于5以上的  模型版本。官方也有说明Turbo模式并不总是有效,因为如果高速GPU资源池资源不足的情况下,其生成任务还是会放到快速模式的资源池中。

Sticky Style 选项开启后,可以将我们最后使用的提示词中的 --style 参数固定下来,再之后写的提示词中即使没有添加 --style 参数,系统也会自动帮我们加上,我们会在稍厚演示。

reset settings可以重置选项。

需要注意的是midjourney在不断的升级和迭代中,上述的部分设定可能会随着升级迭代发生一些变化,比如某些版本的升级可能会增加一些可设定的选项。另外/settings中设置的选项,其实都可以在使用/imagine指令时添加参数来临时指定,但如果使用/imagine指令时没有添加参数,则会使用/settings中的默认设置。

我们继续学习其他指令,

4.3 /info指令

/info指令

可以查看当前的用户ID,订阅情况,以及Fast Time Remaining,提交的任务等信息。

/subscribe指令刚才已经讲解过,用于订阅计划的购买

4.4 /blend指令

blend指令用于将图片融合,生成新的图片

输入blend指令后,会提示上传2张图片,最多可以上传5张,上传后回车,midjourney会基于上传的图片信息,帮我们生成融合后的图片,blend并不支持提示词,如果希望添加提示词,还是需要使用/imagine命令,另外,/imagine命令同样可以实现图片融合的功能同时还能添加提示词,我们会在后面的课程中讲述。

4.5 /describe指令

输入/describe指令,将提示上传图片,上传图片后回车提交,midjourney会自动分析该图片并给出分析后的图片信息。

describe指令有时候非常有用,他会分析图片并告诉我们AI看这幅图片的时候会关注哪些信息(提示词),这些信息后有时候可以帮助我们更好地书写提示词和语句。

尤其对于设计师,很多时候在设计图片时会参考一些案例,这个时候,如果找到合适的参考图,想要根据参考图像去生成一些类似的图片,往往会不知道如何去书写提示词,这个时候,便可以使用describe指令让midjourney去分析图片,输出分析后的图片信息,然后我们便可以根据信息书写提示词再加上垫图的方式去生成图片,该操作技巧我们会在下期课程中演示。

以上是最常用的指令,掌握好上述指令以及参数,是玩转midjourney的基础。

4.6 其他指令 

还有一些不是那么常用的指令,我们简单做一下介绍

/turbo /fast /relax这三个指令与设置中的turbo,fast,和relax是对应的,可以切换图片生成的高速,快速和慢速模式

/stealth /public与设置中的 Public Mode对应,可以开关隐身模式,但隐身模式 仅对pro订阅和mega订阅用户开放。

/show 命令+jobid可以查看job信息

/prefer 命令可以执行一些与设置相同的操作比如

/prefer remix可以开关remix

而/prefer option set <name> <value>可以创建自定义参数,这些自定义参数可以将多个原生参数快速添加到提示末尾

比如我们在对话框输入/prefer option set wide --chaos 20 --ar 16:9该指令可以创建一个名为“wide”的自定义参数,该自定义 参数可以自动转换为—chaos 20 --ar 16:9,这样在后面输入提示词并使用--wide参数时,则代表自动添加--chaos 20 --ar 16:9,

这里的chaos参数代表四宫格图片之间的风格差异程度,ar参数用于设置长宽比,我们会在稍后讲解这些参数,

prefer suffix:用于设置默认添加到每个提示末尾的后缀,设置后每次会自动在提示内容后面加上后缀内容。 如果需要去除之前设置的后缀,只需要再次输入, 内容为空保存就可以清空之前的后缀设置

比如上面的参数可以直接设置/prefer suffix --chaos 20 --ar 16:9,

这样我们在每次提交时,—chaos 20 --ar 16:9都会自动添加到提示词的末尾。

这两个操作通常用来提升我们使用midjourney的效率。

4.7 /help指令

另外如果想学习更多的关于midjourney的指令,可以输入

/help指令查看帮助信息,该指令会提供文档链接,参数列表等信息。

五: imagine指令常用参数

讲解完常用指令,我们再来讲解一下其中最重要的imagine指令所支持的一些常用参数。

在实践中,我们使用midjourney的过程,通常就是使用/imagine指令,结合提示词,再结合一些参数来生成我们想要的图片。

先讲一下如何使用参数,我们在输入/imagine指令回车后,会提示输入提示词,我们在输入提示词后可以添加imagine支持的参数,比如下面会讲到的--version --aspect --chaos等参数,然后按回车,这些输入的参数便会添加到指令中,并引导midjourney bot生成图。

  

注意参数通常添加到提示词末尾,参数与提示词之间需要空格分隔,另外参数是两个横杠加英文字符或文字,参数与参数值间也需要用空格分隔,

另外。有些参数支持简写形式,比如--aspect支持简写形式--ar, --chaos支持简写形式—c

我们先看一下最常用的几个参数 

5.1: --version与--niji

首先是

--version参数(--v 1 --v 2, --v 5.1)和--niji参数(--niji 4 --niji 5),—version参数支持简写形式—v

这两个参数可以设定使用的模型版本,也会覆盖settings中默认的模型版本设置(演示一个输出)

我们使用同样的提示词a beautiful asian girl, sandy beach, sea

添加--v参数和--niji参数调用不同的模型,我们看一下结果。

这个是不带—v和—niji参数也就是默认模型6生成的图片

这个是使用--v 5.2模型生成的图片

这个是使用--niji 5模型生成的图片

这个是使用--niji 6模型生成的图片

5.2: --aspect(--ar)

--ar --aspect是使用非常频繁的参数

该参数用于设置图像长宽比,midjourney默认出图长宽比为1:1,我们可以通过该参数设定出图的长宽比,比如可以设定为16:9 4:3,

但需要注意该参数后跟的数字必须是整数,不能是1.2:1等非整数形式,

 比如:/imagine 输入提示词a beautiful asian girl, sandy beach, sea —nij6 在提示词后添加空格—ar空格16:9,此时midjourney生成的图片的长宽比调整为了16:9

  

5.3: --chaos(--c)

再看一下--chaos –-c参数

chaos为混乱的意思,

Chaos参数影响图像生成结果的变化程度,chaos数值越低,生成的四宫格图片之间风格、构图较相似; 数值越高,风格、构图上的差别会越大

-chaos支持简写形-c 

数值范围:0-100,默认值为0

我们看一下使用该参数后生成的图片,我们输入提示词加上该参数,并设置值为20  

a beautiful asian girl, sandy beach --c 20,

可以看到,生成的4副图片,风格已经有了较大的差异。

如果我们继续增加数值,设置为50,生成的4宫格图片风格差异就更加明显。

5.4: --seed

接下来,我们讲述几个与AI随机性相关的参数

首先是--seed

我们可以使用相同的提示词和参数让Midjourney帮我们连续生成图片,可以看到,midjourney生成的图像具有非常大的随机性,同样的提示词和参数,生成的图像各不相同,甚至有的风格迥异。那么我们可以让midjourney生成相同的图像吗?答案是肯定的。

实际上midjourney后台的AI算法在生成图像时会赋予一个随机种子值seed,该随机种子值将作为输入元素参与扩散模型绘制图像的过程。随机种子值不同,导致最后生成的图像也就存在差异。但我们可以通过固定seed值的方式来保持图像的一致性,比如使用相同的种子值和提示词将产生完全相同的图像结果。 

我们先看一下如何获取图片的seed值。

我们在四宫格图片上点击右键,选择添加反应,

搜索框输入envelope回车,

点击左侧菜单最上方的私信图标,

可以看到,midjourney发送了图片的详细信息到私信,这里的详细信息,就提供了生成图片使用的随机种子值seed,获取seed之后,我们便可以使用该seed值控制我们的图像生成,

我们输入完全相同的提示词,然后加上--seed参数 输入相同的值,midjourney将生成了完全相同的图像。

5.5: --cref与--cw

另外一个控制AI随机性的参数是--cref和--cw

该参数是2024年3月在v6模型和niji 6模型版本中新增的一个很有实用价值的参数,该参数可以帮助生成一致性的人物。

比如我们现在希望用某张图中的人物生成一张在办公室喝咖啡的图片,没有推出该参数时,该场景在midjourney中很难实现,因为AI的随机性,生成的人物会发生较大的变化,但现在我们可以在V6以及niji 6模型版本中使用--cref参数来控制人物的一致性。--cref参数后面指定的是参考图的url地址,我们可以上传图片后,然后左键点击图片不放,拉到提示词输入框中,图片地址会直接复制到提示词输入框,我们也可以左键点击生成的图片不放,拉到提示词输入框中,图片地址同样会复制到提示词输入框:

先输入提示词,再加上--cref 参数,然后左键点击参考图不放,拉到提示词输入区域,可以看到图片链接地址自动输入到了提示框,回车提交,可以看到,生成的图片中的人物均参考了cref参数指定图片中的人物特征。  

--cref参数可以和--cw参数使用

--cw用于设置参考强度,100是默认值,使用人物的面部、头发和衣服。而--cw 0,则只会专注于人物脸部特征,衣服,头发都可能发生变化。

5.6:--sref与--sw

与--cref类似的还有

--sref参数和--sw

--sref可以参考一个或多个图片的风格去生成新的图片,我们演示一下。

我们输入提示词,然后加上--sref参数,并且接上几张图片的url链接地址,

提交后可以看到,生成的图片融合了--sref参数指定的图片风格。

--sw参数可以与--sref配合使用,用于设置风格化的强度,100是默认值,0表示关闭,1000是最大值

--sref参数与后面课程会讲述的垫图可能有点类似,但是也有一些区别。垫图学习的是图片中的元素、构图、内容等。而--sref则是学习图片中的风格。另外,--scref参数后面所指定的图片也可以设置不同的权重

5.7: --no

我们再演示一些可能会用到的参数。

--no参数,在提示词末尾加上 --no 可以让画面中不出现某些内容,比如

AI在生成图片时可能会创意性地添加一些元素,比如这里的图像,

我们的提示词中没有提到树,但是midjourney生成的图片绘制了树这个元素,如果我们不希望出现树这个元素我们可以添加参数

 --no plants或者--no tree

这样生成的图片就不会再出现树这个元素  

另外,下一节进阶课程中的提示词负权重设置同样可以和--no参数提供相似的效果,我们会在下节课程中讲述。

5.8:--repeat

--repeat参数

众所周知,AI生成图片具有一定随机性,就类似游戏里的抽卡,我们可能需要多次抽卡才能找到令我们满意的图片。在midjourney里,我们是否可以连续抽卡从而增加抽到好卡的概率呢?答案是可以的。这里用到的就是参数“--repeat”,该参数可以一次性执行多次生成图片的操作,这样可以加速我们的抽卡环节。

repeat参数后可以设置我们需要出图的次数。比如我们可以用同样的提示词,加上--repeat 4,提交后,会提示确认,点击yes后,midjourney会连续4次生成4宫格图。

需要注意的是,不同的订阅,使用repeat参数支持的数值大小是不同的,越高级的订阅可以支持的数值越大。

5.9: --tile

--tile参数

该参数只有V5以上模型支持,他可以生成可用作重复拼贴的图片,什么是重复拼贴?就是该图片可以横向和竖向无缝拼接。

我们使用该参数生成图片,

可以看到这些图片可以横向竖向无缝拼合,支持无缝拼合的图片可以创建用于布料、壁纸和纹理的无缝拼接场景。

5.10: --stop

--stop参数

Midjourney的默认图像生成迭代步数为100,渲染完成后的图像非常清晰,而这个步数是可以调整的,步数越少,停止渲染的时间就越早,得到的图像也越模糊。

该参数的数值范围为10-100

我们演示一下,输入提示词,添加--stop 80参数

a beautiful asian girl, sandy beach --stop 80 

可以看到,生成图像比较模糊。我们在之前的课程中有讲述扩散模型会经历加噪和去噪过程,在迭代到80步时,midjourney停止了剩下的迭代步骤,此时的图像并未完成完整的去燥步骤,所以图像会稍显模糊。

5.11: --iw

---iw

iw参数主要用于图生图也就是垫图的场景,用于设置图像权重,较高的 --iw 值意味着我们上传的图片对生成的结果影响更大。

该参数默认值为1,但需要注意该参数在不同模型版本中支持的参数值有一定区别,比如version 5.2和niji 5中支持的数值范围为 0.5-2,version 6支持的数值范围为 0-3。我们会在下期课程图生图的介绍中详细演示该参数的使用。

5.12:--quality, --style, --stylize

除了上面讲述的内容,midjourney还支持很多参数,

比如

--quality参数可以调节图像渲染时间从而影响图像质量,

--style参数可以调节图片的风格化水平

--stylize可以调节绘制图片时的美学与艺术性,从而覆盖settings设置中的stylize选项

这些参数我们就不再一一演示。

需要注意的是,不同的模型版本支持的参数是不同的,另外同样的参数在不同的模型中支持的参数值也可能有区别,我们可以通过/help指令打开帮助,extra options项目下,点击参数列表文档链接。该文档中提供了参数详细使用方式,以及不同模型中的对比表格。

好了,本节课的课程到这里就结束了,我们做一下总结,本节课程我们首先简单介绍了midjourney,也让我们对AI绘画有了一个初步的认识,然后我们演示了如何注册以及付费订阅midjourney服务,接着我们讲解了midjourney的常用指令以及最常用imagine指令的一些常用参数的用法,学习完本节课程,相信大家已经能使用midjourney绘制出自己想要的图像。但是,利用AI绘制图像还有很多需要学习的方法和技巧,比如我们在下节课程中会学习到的提示词技巧,以及图生图方法,这些技巧、方法可以帮我们更好地根据自己的想法引导AI绘制出理想的图像。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值