AI大模型开发架构设计(2)——AI绘画技术架构&应用实践

本文详细阐述了AI绘画的整体流程,包括从输入提示词到生成图像的过程,涉及文生图的核心算法(语言模型、扩散模型和解码模型),以及如何利用微服务和云原生技术实现工程架构的实时弹性。同时介绍了AI绘画的多模态支持应用。
摘要由CSDN通过智能技术生成

AI绘画技术架构&应用实践

1 AI绘画整体流程

  • 第一步:输入 Prompt 提示词:/mj 提示词
  • 第二步:文生图(Text-to-Image)构图
  • 第三步:图片渲染
  • 第四步:图片展示

image.png

2 AI绘画技术架构

文生图核心算法原理
  • 把人类创造的内容用一个高维的数学向量进行表示
    • 如果内容到向量的“翻译”足够合理且能代表内容的特征,人类所有的创作内容都可以转化到空间里的向量。
  • 文生图整体可以分为三个部分:Language Model(语言模型)、Diffusion Model(扩散模型)、Decoder Model(解码模型)。

Language Model(语言模型)→Text Encoder(文本编码)

  • Language Model 是将输入的 Prompt 文本提示词转化为可以输入到 Diffusion Model 使用的表示形式,通常使用 Embedding 加上一些 Radom Noise 输入到下一层。

image.png

Diffusion Model(扩散模型)→Image Information Creator

  • 它是一个时间条件 U-Net(用于图像分割的深度学习架构),它将文本表示和一些高斯噪音作为模型输入,将对应的图像添加一些高斯噪音,得到一个有点噪点的图像,在时间上重复这个过程,重复几百次后就可以获得完全嘈杂的图像。
  • 这么做的过程,记录每个步骤的图像版本,用训练的 NN 就可以将噪声较大的示例作为输入,预测输出新图像。

image.png

Decode Model(扩散模型)→放大 Diffusion Model 的输出到完整图像

  • 它获得 Diffusion Model 的输出并放大到完整图像。
    • 比如:扩散模型在 64 X 64 PX 上训练,解码模型将其提高到 512 X 512 PX。

image.png

训练Encoder模型

  • 在训练过程中,还有一个 Encode Model,它是 Decoder Model 的对应部分,它的目标是将输入图像转化为具有高语义意义的缩减采样表示,会消除与图像不太相关的高频视觉噪声。
  • Encoder Model 和 Diffusion Model 训练分开,采用 Encoder Model 后的图像作为 Diffusion Model 的输入,就可以在图像空间的训练比原始图像计算少64倍,大大节省了计算成本。
  • 训练模型的训练&推理是计算最贵的部分。
文生图工程架构
  • 微服务 + 云原生实时弹性计算和扩容架构

image.png

3 AI绘画的应用实践

  • 多模态的支持能力:文生图 + 图生图 + 图生文

image.png

  • 21
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

讲文明的喜羊羊拒绝pua

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值