Stable Diffusion 图像生成测试

最近图像多模态生成模型特别火,简单尝试了下。

项目地址:GitHub - CompVis/stable-diffusion: A latent text-to-image diffusion model

由于本地GPU比较弱鸡,使用了Google的colab进行了简单尝试,colab地址:

https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb

被效果惊呆了:

输入:A  Ultraman takes a nap in office.

 奥特曼在办公室睡午觉。

输入:monkey playing football under an banana tree

猴子在香蕉树下玩足球。

咱也尝试下中国画怎么样:

输入:

Beautiful streets in ancient China with a bridge over the river

中国古代街道

 

 

大多数的生成效果都有一点让人眼前一亮,虽然人脸和一些细节生成还不是太好,但是这种基于扩散模型的生成模型感觉前景可期,甚至有可能用于商业应用,做精细化的配图生成。当然还有一块市场是艺术画作生成,这一块也有很大的空间值得期待。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Stable diffusion图像生成模型是一种用于生成图像深度学习模型,基于稳定随机过程的理论,能够生成高质量、高分辨率的图像。该模型是由深度学习领域的前沿研究者提出的,可以应用于各种图像生成任务,如图像修复、超分辨率、去噪等。 Stable diffusion模型的核心思想是使用随机过程来描述图像的演化过程。该模型假设图像是由一组像素点组成的,每个像素点都被看作是一个随机变量,其取值范围在0到1之间。通过对每个像素点施加不同的随机扰动,可以模拟图像的演化过程,从而生成新的图像。 Stable diffusion模型的具体实现是基于神经网络的,通过训练神经网络来学习随机扰动的分布规律,从而生成新的图像。在训练过程中,首先将原始图像传入神经网络,然后对每个像素点施加一个随机扰动,并将扰动后的图像作为输入再次传入网络。该过程不断重复,直到达到一定的迭代次数,最终生成新的图像。 Stable diffusion模型的优点在于能够生成高质量、高分辨率的图像,且生成图像具有较高的真实度和多样性。此外,该模型能够适应各种图像生成任务,并且具有较好的鲁棒性和泛化能力。 总之,Stable diffusion图像生成模型是一种基于随机过程的深度学习模型,可用于生成高质量、高分辨率的图像。它是目前图像生成领域的前沿技术之一,具有广泛的应用前景。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值