Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了

这次,海马体照相馆可能真的要木得了!!

前有妙鸭相机这种付费傻瓜式的 AI 写真程序,后有 Stable Diffusion 定制属于自己的 Lora 模型的围攻。

但今天要分享的确实一个叫 EasyPhoto 的 AI 写真照片生成器!

免费,使用起来却非常简单。

一 EasyPhoto

EasyPhoto 是一款 Stable diffusion 插件,用于生成AI肖像画,主要用于训练个人数字分身。

训练方式非常简单,只需要提供 5 到 20 张肖像图片(最好是半身照片且尽量不要佩戴眼镜),20 分钟左右,Stable diffusion 就可以训练好数字分身。

训练完成后,我们可以使用预设的模板或者自己上传图片进行预测,也就是脸部替换了!

二 安装

插件安装包请看文末获取哦!

除了安装 EasyPhoto 插件外还需要将 ControlNet 的个数设置大于 3,EasyPhoto 在训练的时候会调用 ControlNet 。

三 训练数字分身

1 上传图片集

安装好插件后进入界面可以看到多出了一个 EasyPhoto 菜单。进入 EasyPhoto 页面后上传需要训练的照片集。

推荐5-20 照肖像照,不同的角度不同的光照效果会更好哦!

2 训练参数设置

EasyPhoto 非常贴心,已经帮我们设置好了默认的配置选项,第一次玩我们可以完全跳过。直接进行下一步开始训练。

关于参数的介绍:

  • base checkpoint : 基于什么模型训练;默认是 Chilloutmix-Ni-pruned-fp16-fix 此模型专门用来生成逼真的真人模型,生成的光影效果及人物质感也相当好,配合各种Lora模型做换脸使用可以说是百搭

  • resolution:训练时喂入网络的图片大小,默认值为512

  • validation & save steps: 验证图片与保存中间权重的steps数,默认值为100,代表每100步验证一次图片并保存权重

  • max train steps: 最大训练步数,默认值为800

  • max steps per photos: 每张图片的最大训练次数,默认为200

  • train batch size: 训练的批次大小,默认值为1

  • gradient accumulation steps:是否进行梯度累计,默认值为4,结合train batch size来看,每个Step相当于喂入四张图片

  • dataloader num workers: 数据加载的works数量,windows下不生效,因为设置了会报错,Linux正常设置

  • learning rate: 训练Lora的学习率,默认为1e-4

  • rank Lora: 权重的特征长度,默认为128

  • network alpha : Lora训练的正则化参数,一般为rank的二分之一,默认为64

  • Validation: EasyPhoto在训练时默认会对训练过程进行验证,然后根据 训练过程中的验证结果,进行最优秀的几个Lora进行融合。会影响训练的速度,比较吃显存!

最终训练步数 Final training step = Min(photo_num * max_steps_per_photos, max_train_steps)

简单来说就是:图片数量比较少,训练步数为 photo_num * max_steps_per_photos。图片数量比较多,训练步数为 max_train_steps

3 开始训练

参数配置好之后直接点击 star Training,接着输入分身名称。

再接着就可以去喝杯咖啡了~ ☕️

在这期间会下载资源(如果是第一次会下载 10G 左右的资源)并进行训练

你可以在后台看到具体的日志和进度

直到看到这个就表示训练成功了

四 人物生成

在训练 成功之后,我们就可以进入到 Interface 页面了。点击一下刷新按钮就可以看见我们刚才训练出来的分身了。

EasyPhoto 提供了三种人物生成方式(脸部替换)

1 基于预设模板

我们可以直接选择一个预设的模板,然后选择我们的数字分身,直接生成

2 上传图片进行替换

直接上传一张底图,选择数字分身,替换底图的人物脸部。这个大家可以自己尝试尝试

3 生成图模式

虽然说是生成图。但是 EeasPhoto 目前还只是支持选择特定维度提示词进行生成。不支持直接根据用户输入直接生成。

最后在来说说生成的时候可以设置的高级选项~可以按需调整

  • Additional Prompt 正向提示词:传入Stable Diffusion模型进行预测。可以根据自身希望增加的元素调整prompt词。

  • Seed 种子值:用于保证结果的可复现性,为-1时会随机选择一个种子数。

  • Face Fusion Ratio Before 第一次人脸融合的强度:调节后会影响人物相似度,一般来讲,值越大与训练人物的相似度越高。

  • Face Fusion Ratio After 第二次人脸融合的强度:调节后会影响人物相似度,一般来讲,值越大与训练人物的相似度越高。

  • First Diffusion steps 第一次进行Stable Diffusion的总步数:第一次Diffusion主要进行人像区域的调整,使得人像更自然。调节后会影响图片质量与出图速度,一般值越大图片质量越高,出图越慢。

  • First Diffusion denoising strength 第一次进行Stable Diffusion的重绘比例:调节后会影响图片的重绘比例与出图速度,一般值越大,人像变动越大。

  • Second Diffusion steps 第二次进行Stable Diffusion的总步数:第二次Diffusion主要进行人像周围区域的调整,使得图片更和谐。调节后会影响图片质量与出图速度,一般值越大图片质量越高,出图越慢。

  • Second Diffusion denoising strength 第二次进行Stable Diffusion的重绘比例:调节后会影响图片的重绘比例与出图速度,一般值越大,人像周围变动越大。

  • Crop Face Preprocess 是否对人像裁剪后再处理:推荐开启,假设输入的是大图,会对人像区域先做裁剪后再进行人像调整,调整结果更精细。

  • Apply Face Fusion Before 是否进行第一次人脸融合:调节后会影响是否进行第一次人脸融合,会影响人像的相似度。

  • Apply Face Fusion After 是否进行第二次人脸融合:调节后会影响是否进行第二次人脸融合,会影响人像的相似度。如果感觉人像发虚则取消该次融合。

  • Apply color shift first 是否进行第一次DIffusion后的色彩校正:调节后会影响图片的人像自然程度。

  • Apply color shift last 是否进行第二次DIffusion后的色彩校正:调节后会影响图片的人像自然程度。

  • Background Restore 是否进行背景的重建:开启后可以对人像区域外背景进行重建,在使用动漫化模型时,可以让整个图片更和谐。

如果你觉得教程还不错,别忘了把好内容分享给身边的小伙伴哦 📢

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
  • 26
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 稳定扩散是一项帮助您生成真人照片的先进技术。无论您是想创建虚拟人物、设计游戏角色还是进行影视特效制作,稳定扩散都能满足您的需求。通过稳定扩散技术,您可以快速、准确地生成高质量的真人照片,节省时间和资源。 稳定扩散利用深度学习算法,通过分析大量真实照片的特征和数据,从而创造出栩栩如生的虚拟人像。它不仅能够生成具有逼真面部特征的照片,还能自动添加人工智能驱动的表情、姿势和情感,使生成的照片更加生动和引人入胜。 稳定扩散还提供多种个性化、定制化的功能选项,您可以根据您的需求调整照片的年龄、性别、肤色、发型等参数。这样,您可以轻松创建不同风格和特点的角色,满足您创意的多样化需求。 同时,稳定扩散还与云平台相结合,使您能够随时随地在线生成和编辑真人照片。这为团队协作、快速迭代和灵活的创作流程提供了便利。 总而言之,稳定扩散是一项功能强大、易于操作的技术,能够帮助您快速、准确地生成高质量的真人照片。无论您是从事游戏角色设计、动画制作还是其他创作领域,稳定扩散都是您不可或缺的助手。它将为您的创作带来无限可能,让您的作品更具真实感和吸引力。 ### 回答2: "stable diffusion生成真人照片",旨在通过稳定的扩散技术为用户提供高质量的真实人像照片。以下是关于stable diffusion生成真人照片的几个提示语: 1. 高度还原真实,stable diffusion帮您呈现最真实的美丽风采。 2. stable diffusion,为您创造极致真实的人像照片验。 3. 专业算法保障,stable diffusion打造迷人无比的真人照片。 4. 别再因照片质量困扰,stable diffusion助您获得高质真人照片! 5. 无需拍摄实景,stable diffusion帮您轻松生成令人惊艳的真人照片。 6. stable diffusion,您的真人照片生成利器,让您轻松展现独特魅力。 7. 极致清晰度,stable diffusion让您真人照片更加逼真赏心悦目。 8. stable diffusion,让您的真人照片更具专业品质,犹如职业摄影师作品。 9. 魅力焕发,stable diffusion引领真人照片新潮流,尽显个人魅力。 10. stable diffusion,为您带来真人照片生成的全新境界,以你为中心,创造绝美大片。 ### 回答3: 稳定的扩散是一种前沿技术,能够以惊人的准确度生成逼真的真人照片。无论是面部特征、头发、眼睛还是肤色,稳定的扩散技术都能够完美还原,仿佛这些照片是由真实的摄影师拍摄所得。无需担心照片出现模糊、颜色不真实等问题,稳定的扩散技术能够保证每个细节都真实而清晰。使用稳定的扩散,您可以轻松地创建个人照片、社交媒头像或展示产品等用途所需的人物照片。您只需提供人物照片的大致轮廓,稳定的扩散技术将为您生成一个性格鲜明、富于表情的合成图像。稳定扩散不仅能够帮助设计师和创作者提高工作效率,还能为游戏开发人员创造出更逼真的角色形象。无论是您需要一幅展示您产品的广告照片,还是需要一张栩栩如生的人脸照片来进行人脸识别等技术实验,稳定的扩散都能够满足您的需求。随着技术的进一步发展,稳定扩散将变得更加出色和准确,因此不论您是专业人士还是普通用户,都能够通过稳定扩散创造出与众不同的真人照片
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值