专业测评|戴尔Precision塔式工作站AI绘图及训练测评分享

本次测试一共收到三张显卡,分别是NVIDIA RTX™ A4000、NVIDIA RTX™ A4500、NVIDIA RTX™ A5000显卡,显存大小分别是16GB、20GB、24GB,搭配测试的塔式工作站主机是全新戴尔Precision 3660塔式工作站,搭载第十三代英特尔®酷睿™ i7-13700处理器,内存为32GB,硬盘为2T+256G SSD。

01 模型训练的基本要求

Lora与Dreambooth

提到训练模型,我想简单地介绍一下关于Stable Diffusion模型训练的基本概念与模型训练对配置的最低需求(注:这里所指的需求是我结合官网推荐以及本次测试结果综合考量后得到的)!

提到模型的训练,就不得不说一下关于大模型的基础模型和微调模型的概念:

基础模型

大模型的基础模型在SD中指的是Stable diffusion:V1.4/V1.5/V2.0等,这些都是大模型,它们泛化性、通用性很好,是官方利用大量的数据训练而来。对于大模型的基础模型训练我们个人用户或者微小企业而言成本太高了,所以大模型的基础模型训练不在本次的测试范围之内。

微调模型

本次测试的主要内容是训练微调模型,而微调模型的种类很多,其中分为在大模型的基础模型的基础上结合自己的自有数据进行二次训练,从而得到新的微调大模型(Dreambooth),以及在大模型基础模型的基础上,训练Lora、Embedding、Hypernetwork等微调模型。

鉴于Embedding、Hypernetwork这两种微调模型实用性目前来看不是很高,所以此次测试主要以训练Lora模型为主。其中新生成的微调大模型(Dreambooth)就是我们在SD界面中上方所切换的模型。

图片

微调模型Lora模型,是我们在大模型生成的基础上对画面的风格进行微调时所调用的模型。

图片

对于训练来说,微调大模型(Dreambooth)和微调模型(Lora)又分不同的版本,比如SD1.5版本的Dreambooth模型与Lora模型以及SDXL的Dreambooth模型与Lora模型,两大版本不同的模型在训练过程中对配置的要求是不一样的。

图片

如果想要训练SD1.5的微调模型(Lora),要求我们的硬件显存必须要6G以上,这是最低要求,而我推荐想要进行微调模型的训练,显存最好超过8GB。

如果想要训练SD1.5的大模型(Dreambooth),需要我们的硬件显存必须要12GB以上,这里也是最低要求,我推荐的显存也是12GB。

02 SD生图小试牛刀  

上次测试戴尔移动工作站的时候,全新戴尔Precision 5680移动工作站搭载的显卡是NVIDAI RTX™ 3500Ada,显存是12GB,最终在生图阶段遇到SDXL大模型配合Controlnet时表现的不是很好,那么让我们在测试模型训练之前,先来个开胃小菜,看一下NVIDAI RTX™ A4000显卡,全新戴尔Precision 3660塔式工作站上基于SD生图的表现吧。 

图片

从显存占用上来看,全新戴尔Precision 3660塔式工作站搭配NVIDAI RTX™ A4000显卡已经可以胜任所有的出图模式,并且速度很快,那么NVIDAI RTX™ A4500和NV

  • 20
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值