自各类AI工具出现后,各种算法模型迭代的速度都非常快,Midjourney也不例外。下面这张中国情侣图相信很多人在网上都看过,这就是由今年3月16日发布的V5模型生成的。
上一代的默认V4发布还不到半年,在今年5月初V5.1 又已经发布。短短几个月Midjourney的模型在图像细节和准确度上有了巨大提升,即使和真实照片相比也难辨真假。
虽然新的V5模型在各项性能上都有了很大提升,但是有时候也会出现不稳定的情况,在实际绘图时很多时候还是要根据自身的实际需求来选择模型。加上V5和Niji模型还陆续更新了几种不同的绘图模式,今天本篇文章是针对上一篇【基础篇】内容的补充,方便大家更好的理解和选择合适的绘图模型。
关于切换绘图模型的方法在之前的文章里也有介绍过,那就是在文本提示词的后面加上对应的模型参数即可。
如果觉得每次选择模型比较麻烦,也可以直接在设置项中选择默认模型,这样在绘图时就会自动加上相应的模型参数后缀。
下面开始正式介绍目前最常用的几种绘图模型,关于V4之前的模型都是旧版本,此处就不再一一赘述了。
关于V4
使用方法:--v 4
在正式介绍V5模型前,我们先来回顾下让Midjourney火遍全球的V4模型。
在V4出现之前,Midjourney一直是整合其他开源模型作为图像生成算法,图像的生成效果也始终差强人意。直到V4开始,Midjourney开始正式自行训练模型,闭源的算法结合Discord上积累的庞大用户反馈数据,Midjourney不断针对用户需求做针对性的训练,如今无论是创意行业设计者,还是普通爱好者,都能通过Midjourney轻松完成自身的绘画需求。
V4作为一款去年12月发布的版本,在本月7号的V5.1发布前还一直是作为Midjourney默认的版本模型,可见其稳定性和图像效果已经十分强大。在大部分绘图场景下V4生成的图像效果依旧十分出色,甚至效果更佳,所以大家不必一味的追求最新版本,而是根据自己的实际做图需求来选择模型。
结合我自己的使用体验来看,V5适合生成摄影照片等需要高度清晰和细节还原的图片,而V4适合生成带有强烈艺术风格的插画或传统图像。
关于Midjourney模型大家还需要了解的是,大版本的模型迭代期间,也会间歇性的更新小版本模型。比如V4其中变化比较明显的被分为3个子版本,分别是V4a、V4b、V4c,默认情况下的V4使用的就是最近的V4c,可以在V4版本后加入style参数来切换查看子版本的图片生成效果。
关于V5.0
使用方法:--v 5
2023年3月15日,所有人期待已久的V5模型正式上线,一经发布立马在AI绘画圈引起巨大反响。根据更新文档来看,V5重点更新了以下内容
-
增加了图片风格化的范围,对提示词响应更加准确
-
提升图片质量,优化了动态范围(图片细节的丰富区间)
-
增加了更多图片细节,展示内容更加准确,移除了不必要的文本
-
提升了图片提示词的信息权重
-
支持【--tile】的无缝平铺效果
-
支持【--ar】的长宽比大于2:1
-
支持【--iw】来调整提示图片和提示文本的信息权重
下面针对更新内容给大家说明下使用过程中的细节注意点:
多使用口语化描述提示词
在V5版本下,提示词和图片内容关联性更强,需要我们更加关注对图片内容的描述。此外,算法优化了自然语言处理(NLP)的功能,这就提醒我们尽量采用一段完整的话进行描述,而不是单个词汇来描述关键词。
下图可以看出,同样是使用V5模型,当使用完整句子描述时图片内容明显更加准确