如何用Stable Diffusion模型生成个人专属创意名片?

    <link rel="stylesheet" href="https://csdnimg.cn/release/blogv2/dist/mdeditor/css/editerView/kdoc_html_views-1a98987dfd.css">
    <link rel="stylesheet" href="https://csdnimg.cn/release/blogv2/dist/mdeditor/css/editerView/ck_htmledit_views-25cebea3f9.css">
            <div id="content_views" class="markdown_views prism-tomorrow-night-eighties">
                <svg xmlns="http://www.w3.org/2000/svg" style="display: none;">
                    <path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id="raphael-marker-block" style="-webkit-tap-highlight-color: rgba(0, 0, 0, 0);"></path>
                </svg>
                <p></p> 

1 什么是二维码?

二维码是一种用于存储和传输信息的方便而广泛使用的图像编码技术。它是由黑色方块和白色空白区域组成的二维图形,可以通过扫描设备(如智能手机)进行解码。二维码基于特定的编码标准和解码算法——其中包括错误检测和纠错编码,以确保在图像损坏或部分遮挡的情况下仍能正确解码。二维码的优点是可以存储大量信息,并且能够快速扫描和解码,因此在商业、营销、物流等领域得到广泛应用

在日常生活中,二维码已成为我们个人名片的一种展示方式,如何通过人工智能生成内容(AI Generated Content, AIGC)技术让我们的名片二维码更有创意?这就要涉及到扩散模型Stable Diffusion,下面是最终的生成效果

在这里插入图片描述

平台审核原因,二维码做了打码处理

2 什么是扩散模型?

所谓扩散算法diffusion是指先将一幅画面逐步加入噪点,一直到整个画面都变成白噪声。记录这个过程,然后逆转过来给AI学习。

AI看到的是什么?一个全是噪点的画面如何一点点变清晰直到变成一幅画,AI通过学习这个逐步去噪点的过程来学会作画。

diffusion和之前大火的GAN模型相比,有什么优势呢?用OpenAI的一篇论文内容来讲,用diffusion生成的图像质量明显优于GAN模型;而且与GAN不同,diffusion不用在鞍点问题上纠结——涉及稳定性问题,只需要去最小化一个标准的凸交叉熵损失即可,这样就大大简化了模型训练过程中,数据处理的难度。

总结来说,目前的训练技术让diffusion直接跨越了GAN领域调模型的阶段,而是直接可以用来做下游任务,是一个新的数学范式在图像领域应用的实例

diffusion在工程应用中的基本概念列举如下:

  • Stable Diffusion: Stable Diffusion的功能是从文本描述中生成高质量、高分辨率的图像。它由Stability Al首次公开发布,其代码和模型权重均免费开源;
  • Stable Diffusion webui: 是一个基于网页的用户界面,可以更方便地使用Stable Diffusion模型。它支持多种功能和设置,是Stable Difusion使用中最方便的工具。Automatic1111就是用户社区常用的网络Stable Diffusion webui
  • txt2lmg: txt2lmg指输入文字,并看到生成的图像;
  • Img2lmg: Img2lmg指输入图像和文字,生成一张新的图像。新的图像保留了原始图像的颜色和构图,但是根据文字的描述,改变了图像的风格和特征
  • ControlNet: ControlNetStable Diffusion webui的一个扩展,可以根据输入的图像和文字,对图像进行各种控制,例如改变图像的姿态、表情、服装、背景或风格,生成不同角度和光照的图像等。ControlNettile是多种生成方法的基础支撑之一,同时ControlNet也是Stable Diffusion目前效果最好的扩展

接下来介绍如何部署Stable Diffusion模型生成个人专属创意名片

3 Stable Diffusion环境搭建

主要分为以下步骤:

  • 创建Python3.10的虚拟环境

    conda create -n ai_draw python=3.10
    
       
       
    • 1

    虚拟环境相关操作请参考:Anaconda安装与Python虚拟环境配置保姆级图文教程(附速查字典)

  • 在虚拟环境中安装Pytorch
    这步比较涉及显卡相关的配置,比较复杂,请参考:最新CUDA/cuDNN与Pytorch保姆级图文安装教程(速查字典版)

  • 下载模型stable-diffusion-webui

    git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
    
       
       
    • 1
  • 安装依赖库
    首先进入虚拟环境

    conda activate ai_draw
    
       
       
    • 1

    接着进入stable-diffusion-webui根目录运行

    pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt
    
       
       
    • 1

    采用清华源可以更快完成安装
    在这里插入图片描述

  • 下载模型
    这里采用ghostmix模型,下载完成后移动到这个目录stable-diffusion-webui-master\models\Stable-diffusion

    在这里插入图片描述

  • 根目录运行启动文件

    python launch.py
    
       
       
    • 1

    期间会下载一些新的依赖,有可能超时报错,多启动几次即可

4 开始制作创意名片

通过第三节的配置,成功后即可在终端看到

在这里插入图片描述
开放了一个本地端口,在浏览器中输入即可

接下来选择ghostmix模型,并通过国内镜像ControlNet安装扩展

在这里插入图片描述
接着点击img2img上传个人二维码,这里怕和谐就不放图片了

在这里插入图片描述
参数配置如下:

  • Resize mode: Just resize
  • Sampling method: DPM++2M Karras
  • Sampling step: 50
  • Width: 768
  • Height: 768
  • CFG Scale: 7
  • Denoising strength: 0.75

接着配置ControlNet

在这里插入图片描述

参数配置如下:

  • Enable: Yes
  • Control Type: Tile
  • Preprocessor: tile_resample
  • Model: control_xxx_tile,这个模型在ControlNet-v1-1下载
  • Control Weight: 0.87
  • Starting Control Step: 0.23
  • Ending Control Step: 0.9

最后输入正反向提示词

  • 正向:a cubism painting of a town with a lot of houses in the snow with a sky background, Andreas Rocha, matte painting concept art, a detailed matte painting
  • 反向:ugly, disfigured, low quality, blurry, nsfw

点击生成即可

在这里插入图片描述

结语

我们要对技术保持敬畏,法条约束的暂时缺位并非默许用技术来作恶。

更多AIGC文章请看:


🔥 更多精彩专栏


👇源码获取 · 技术交流 · 抱团学习 · 咨询分享 请联系👇
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要使用stable diffusion训练出自己专属的人像模型,需要按照以下步骤进行操作: 1. 数据收集:首先,需要收集足够数量和多样性的人像图片,这些图片应该包括各种不同的表情、角度和光照条件。这些图片将作为训练数据来训练模型。 2. 数据预处理:对收集到的数据进行预处理,包括裁剪、调整大小和格式转换等。确保所有的图片在输入到模型之前具有相同的尺寸和格式。 3. 网络架构设计:根据需要训练的人像模型来设计网络架构。可以选择使用现有的深度学习网络架构,如ResNet或VGG等,也可以自定义网络架构。这个网络将用于提取人像图片的特征。 4. 模型训练:使用稳定扩散(stable diffusion)方法训练模型。稳定扩散是一种用于生成对抗网络(GAN)的训练方法,通过在生成器(生成人像)和判别器(判断生成的图片是否为真实人像)之间进行迭代训练来提高生成的效果。 5. 优化与调参:在训练过程中,需要进行优化和调参,以提高模型的准确性和生成人像的质量。可以尝试不同的学习率、批量大小和训练迭代次数等参数,以找到最佳的配置。 6. 模型评估:在完成模型训练后,需要对生成的人像进行评估。可以使用一些评估指标,如峰值信噪比(PSNR)和结构相似度指标(SSIM),来评估生成的人像与真实人像之间的相似度。 7. 继续优化:如果评估结果不理想,可以根据需要进行进一步的优化。这可能包括增加训练数据的数量、改进网络架构或调整参数等。 通过以上步骤,就可以使用stable diffusion方法训练出自己专属的人像模型。这个人模型可以用于生成逼真的人像,应用于各种创作和设计领域。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值