stable-diffusion插件

Stable Diffusion的插件(也称为扩展)可以增强其核心功能,提供额外的图像处理能力或改善用户体验,显著提升Stable Diffusion的使用体验,能够更加精细地控制图像生成过程,或者更高效地处理和管理生成的图像。通常通过以下两种方式安装:

  • • 插件库安装:通过名称搜索插件库安装

  • • 通过网址安装:通过插件项目地址安装

实用插件

ControlNet 插件(必装)

ControlNet 是一个用于增强 Stable Diffusion 图像生成控制能力的插件。它通过引入额外的输入条件,如参考图像、姿态检测、线稿、深度图等,来精确控制图像生成的细节,如控制人物的姿势和表情。以下是关于 ControlNet 插件的一些关键信息:

  • • 功能:ControlNet 允许用户控制生成图像中的具体姿势、景深、线稿上色等,提升了对画面的控制稳定性。

  • • 模型安装:除了插件本身,ControlNet 还需要安装预处理模型和特定模型。这些模型文件通常需要放置在特定的文件夹中,并且安装完成后需要重启本地部署的UI。

  • • 模型功能及参数:ControlNet 包含多种模型,如边缘检测(canny)、深度图检测(depth)、人物骨骼检测(openpose)等,每种模型都有其特定的应用场景和参数设置。

  • • 模型说明及案例:ControlNet 提供了多种模型的教程和案例演示,如 Canny 边缘检测、M-LSD 建筑物绘制、法线贴图、OpenPose 姿态检测等,每个模型都有其特定的应用场景。

  • • 社区资源:网络上有丰富的教程和资源,包括详细的文字说明、图片示例和视频教程,可以帮助用户更好地理解和使用 ControlNet 插件。

扩展地址:https://github.com/Mikubill/sd-webui-controlnet 基础模型和配置文件:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main

Prompt-all-in-one 提示词翻译补全

帮助英文不熟练的用户自动翻译中文到英文,自动保存描述词,提供描述词历史记录,快速修改权重等功能。帮助用户更好地构建和优化他们的 prompt(提示词),从而生成更符合预期的图像。以下是一些具体功能:

  • • 自动翻译:将用户输入的 prompt 自动翻译成多种语言,这样用户可以针对不同语言的模型进行图像生成。

  • • 历史记录:保存用户之前使用过的 prompt,方便用户回顾和重复使用,提高工作效率。

  • • 收藏功能:允许用户收藏他们喜欢的 prompt 或者经常使用的 prompt,便于快速访问。

  • • 自动补全:在用户输入 prompt 时,提供自动补全建议,这可以帮助用户快速完成输入并提供灵感。

  • • 多语言支持:支持不同语言的 prompt 输入,使得不同语言背景的用户都能方便地使用 Stable Diffusion。

  • • 格式化工具:提供工具来格式化 prompt,比如添加权重、指定负提示等,以更精确地控制图像生成过程。

  • • 批量处理:允许用户对多个 prompt 进行批量操作,比如一次性生成多张图像。

  • • 界面优化:可能包含对 Stable Diffusion 用户界面的改进,使其更加直观和用户友好。

  • • 高级搜索:提供搜索功能,帮助用户在历史记录或在线数据库中找到相关的 prompt。

  • • 教程和指南:提供如何构建有效 prompt 的教程和指南,帮助新手用户快速上手。

扩展地址:https://github.com/Physton/sd-webui-prompt-all-in-one

After Detailer 人脸及手部修复插件

在小图上精修人物的面部、手部和全身细节,提供比Stable Diffusion自带的面部修复功能更强大的能力。

  • • 功能:After Detailer 主要用于改善由 Stable Diffusion 生成的图像中人脸和手部的细节。它可以提高图像质量,尤其是在人脸的表情和手势方面。-使用方法:

  • • 在生成图像的过程中,用户可以选择启用 After Detailer 插件,并从提供的模型中选择适合的模型进行细节修复。

  • • 用户可以在插件的界面中输入正向和反向提示词,以指导修复过程。

  • • 模型选择:After Detailer 提供了多种模型,例如 face_yolov8n.pt 用于插画风格的人脸修复,person_yolov8n-seg.pt 用于真人风格的修复。

  • • 效果:使用 After Detailer 可以明显提升人脸的细节,尤其是在高清分辨率下,即便在全身图像中也能保持良好的人脸细节。

  • • 进阶用法:除了基本的修复功能,After Detailer 还可以用来生成不同表情的表情包,通过在提示词中加入表情相关的词汇,如 “smile”(微笑),来控制生成图像中人物的表情。

扩展地址:https://github.com/Bing-su/adetailer

Oldsix Prompt 提示词插件

由国人开发,收集整理了上千个提示词,适合英语不熟练的用户。帮助用户快速生成逼真、有创意的图像,从而提高图像生成的质量和效率。

  • • 插件功能:SixGod 插件可能包含多种功能,比如自动补全提示词、提供灵感、自动翻译等,以帮助用户构建更有效的提示词。

插件地址:https://github.com/thisjam/sd-webui-oldsix-prompt

Image Browser 图片浏览器

管理历史图片,查看历史图片的prompt信息,删除不需要的历史图片。它允许用户在 Stable Diffusion 的 WebUI(Web 用户界面)中浏览、查看和管理他们生成的图像。这个扩展为用户提供了一个直观的方式来访问和操作历史生成的图片集合。

  • • 图片浏览:用户可以方便地查看他们之前生成的所有图片,通常以缩略图的形式展示。

  • • 图片管理:提供了删除、重命名或对图片进行分类管理的功能。

  • • 图片搜索:用户可以根据特定的标签或特征搜索图片,快速找到他们需要的图像。

  • • 图片导出:允许用户将选定的图片导出到本地存储中。

  • • 批量操作:可能支持对多张图片进行批量处理,如批量删除或导出。

  • • 排序和筛选:用户可以根据生成时间、评分或其他标准对图片进行排序和筛选。

  • • 详细信息:展示每张图片的详细信息,比如使用的提示词(prompts)、模型参数、生成时间等。

  • • 用户界面:提供一个用户友好的界面,使得图片的浏览和管理变得简单直观。

  • • 集成其他功能:可能与其他扩展或Stable Diffusion的内置功能集成,提供更丰富的用户体验。

  • • 响应式设计:在不同的设备和屏幕尺寸上都能保持良好的显示效果。

扩展地址:https://github.com/AlUlkesh/stable-diffusion-webui-images-browser

Segment anything 图像分割工具抠图神器

Segment Anything(简称SAM)是由 Meta AI(之前称为 Facebook AI Research)开发的一款先进的图像分割工具。它利用深度学习技术,能够识别并分割图片中的不同对象,即使在没有额外训练的情况下也能对不熟悉的对象和图像进行零样本(zero-shot)泛化。

  • • 零样本泛化:SAM 能够识别并分割出图像中未见过的对象,这得益于其基于提示(prompt-based)的设计理念。

  • • 交互式分割:用户可以通过点击、绘制框或输入文本提示来告诉 SAM 需要分割哪些对象,从而实现交互式分割。

  • • 灵活性和集成:SAM 设计灵活,可以轻松集成到其他系统中,比如从 AR/VR 头戴设备获取用户的注视点来选择对象。

  • • 多任务能力:除了基本的图像分割,SAM 还能够执行图像修复、视频目标检测、异常检测、变化检测等任务。

  • • 3D 应用:SAM 还能够与 3D 重建工具结合使用,进行三维场景的重建和渲染。

  • • 医学影像和遥感:SAM 在医学影像和遥感图像分析方面也显示出潜力,尽管可能需要针对特定数据集进行微调。

  • • 半自动标注工具:结合 Label-Studio 等标注软件,SAM 可以用于半自动化的图像标注,提高数据标注的效率。

  • • 开源和社区贡献:SAM 是一个开源项目,拥有活跃的社区,许多开发者为其贡献了各种扩展和改进。

  • • 研究和应用:SAM 的研究和应用前景广阔,它在智能分割领域的探索为未来的图像处理和分析提供了新的可能性。

  • • 视频分割:SAM 还提供了视频应用库,支持视频目标分割和视频编辑功能。

扩展地址:https://github.com/facebookresearch/segment-anything

Ultimate SD Upscale 图片放大

使用深度学习模型提升图像分辨率,减少噪声和模糊,它利用深度学习技术对图像进行高质量的放大处理。这种类型的插件通常旨在解决传统图像放大方法中常见的问题,如像素化和失真,同时保持或增强图像的细节和清晰度。

  • • 无损放大:能够将图像放大至原始尺寸的多倍,同时尽量减少或避免失真和像素化。

  • • AI驱动:使用深度学习算法,基于大量数据训练,以理解图像内容并智能地填充放大过程中的额外像素。

  • • 用户界面:提供简单的用户界面,允许用户选择放大倍数、查看预览效果,并进行放大操作。

  • • 多种模式:可能包括不同的放大模式,以适应不同类型的图像内容,如插画、照片、文本等。

  • • 批量处理:支持用户选择多张图片进行批量放大,提高效率。

  • • 细节增强:除了放大,还可能包含增强图像细节的功能,进一步提升图像质量。

  • • 易于安装:作为 Stable Diffusion 的插件,Ultimate SD Upscale 应该易于安装和集成到现有的工作流中。

  • • 社区支持:通常这类插件会有活跃的社区支持,提供教程、FAQ 和更新,帮助用户解决使用中的问题。

  • • 自定义设置:用户可以根据需要调整放大过程中的各种参数,以达到最佳效果。

  • • 兼容性:兼容多种图像格式,确保广泛的用户群体都能使用该插件。

扩展地址:https://github.com/Coyote-A/ultimate-upscale-for-automatic1111

Tiled Diffusion 图像超分辨率、修复图像瑕疵

一种深度学习模型,主要用于图像生成任务,特别是在图像超分辨率和修复图像瑕疵方面表现出色。适合小显存,速度更快,细节添加更可控。

  • • 图像超分辨率:Tiled Diffusion 能够将图像的分辨率提高,生成高清晰度的大图,甚至可以达到4K或6K的超高分辨率。

  • • 修复图像瑕疵:该模型可以修复因压缩或其他原因导致的照片模糊、损坏等问题,恢复图像的清晰度和细节。

  • • 显存优化:通过分块处理图像,Tiled Diffusion 有效降低了对显存的需求,使得在资源有限的情况下也能处理大型图像。

  • • 细节丰富:在放大图像的同时,Tiled Diffusion 还能够增加图像的细节,使画面看起来更自然、更真实。

  • • 使用灵活性:用户可以根据自己的需求调整分块大小和重叠区域大小,以获得最佳的图像质量和处理速度。

  • • 插件支持:Tiled Diffusion 作为插件,可以集成到现有的图像处理平台中,如 AUTOMATIC1111,为用户提供了便捷的操作界面。

  • • 多种算法:Tiled Diffusion 结合了多种扩散算法,如 Mixture of Diffusers 和 MultiDiffusion,以及原创的 Tiled VAE 算法,以实现更优的图像处理效果。

  • • 适用场景:Tiled Diffusion 适用于多种图像处理场景,包括老照片修复、高清壁纸制作、艺术作品的高清生成等。

  • • 易于使用:根据用户反馈,Tiled Diffusion 插件易于安装和使用,使得非专业用户也能轻松进行图像的高清放大和瑕疵修复。

扩展地址:https://github.com/pkuliyi2015/multidiffusion-upscaler-for-automatic1111

4x-UltraSharp 高清修复放大算法

4x-UltraSharp 是一种用于图像超分辨率放大的算法,它能够显著提高图像的清晰度和细节。这种算法特别适合用于提升写实风格的图片质量,包括真人照片的高清修复。纯放大,无细节添加。

  • • 高清晰度放大:4x-UltraSharp 算法可以将图像放大至原来的四倍,同时保留或甚至增强图像的细节。

  • • 优化模型:此算法基于 ESRGAN(Enhanced Super-Resolution Generative Adversarial Networks)进行了优化,使其更适合常见的图片格式,特别是在处理真人照片时表现更佳。

  • • 细节保留:与其它放大算法相比,4x-UltraSharp 在放大过程中避免了过度锐化,同时提供了清晰的细节,使得图像在放大后仍保持自然和逼真的外观。

  • • 安装使用:用户可以通过下载算法文件并将其放置在 Stable Diffusion 的指定目录下(例如 models/ESRGAN)来安装和使用 4x-UltraSharp 算法。

  • • 后期处理:4x-UltraSharp 常被用作 Stable Diffusion 图像生成流程中的后期处理步骤,以进一步提升生成图像的质量。

  • • 社区推荐:在多个社区和教程中,4x-UltraSharp 被推荐为一种高效的图像放大和高清修复工具。

  • • 使用场景:除了普通的图像放大,4x-UltraSharp 还适用于老照片修复、高清壁纸制作、艺术作品的高清生成等场景,尤其适合对图像清晰度和细节有较高要求的场合。

  • • 性能对比:在实际应用中,4x-UltraSharp 与其他算法相比,如 Lanczos 或 R-ESRGAN 4x+,在细节展现和清晰度上通常表现更优。

  • • 易于集成:作为一个插件,4x-UltraSharp 可以轻松集成到现有的图像处理工作流中,为用户提供了便捷的操作界面。

  • • 开源资源:4x-UltraSharp 的相关模型和算法可能在开源社区中有所提供,用户可以根据自己的需要进行下载和应用。

Additional Networks

由Google AI开发,用于模型中添加额外的LoRA,控制多个LoRA模型生成混合风格的图像,它允许用户添加和使用额外的神经网络模型。这些模型可能包括但不限于不同风格和功能的图像生成模型,从而扩展了 Stable Diffusion 的核心功能。

  • • 模型多样性:允许用户导入和使用多种不同的预训练神经网络模型,增加了图像生成的多样性和灵活性。

  • • 定制化生成:用户可以根据特定需求选择或切换不同的模型,进行定制化的图像生成。

  • • 易于集成:插件设计为易于安装和集成,用户可以通过简单的步骤将新模型添加到 Stable Diffusion 中。

  • • 社区共享:由于 Stable Diffusion 的开源特性,社区成员可以创建并分享他们自己的模型,“Additional Networks” 插件使得这些共享模型的使用变得简单。

  • • 实验性功能:该插件可能允许用户尝试实验性的或者尚未广泛采用的神经网络模型,推动创新和实验。

  • • 性能提升:通过添加优化的网络模型,可能提升图像生成的性能,包括生成速度和图像质量。

  • • 特定任务优化:额外的网络可能针对特定的图像处理任务进行了优化,如面部生成、风格迁移、图像超分辨率等。

  • • 用户界面(UI):插件可能提供了一个用户友好的界面,使得模型的选择和管理变得直观和便捷。

  • • 持续更新:随着社区的发展,“Additional Networks” 插件能够持续引入新的模型,保持系统的先进性。

  • • 技术探索:该插件支持对最新深度学习研究成果的探索,使用户可以体验到最新的图像生成技术。

Image-recognition 图片信息识别

基于图片识别模型,识别图片中的物体、场景、人物等信息,是计算机视觉领域的一个重要分支,它使计算机能够解释和理解图像数据。

  • • 核心原理:图像识别技术通过算法处理数字图像,将图像转换为机器可理解的形式,通常涉及将图像分解为像素并分析这些像素的模式和特征。

  • • 深度学习算法:在图像识别系统中,深度学习算法,尤其是卷积神经网络(CNNs),起着核心作用。这些算法擅长在图像中识别复杂模式,对面部识别、图像内的对象检测和医学图像分析等任务至关重要。

  • • 图像分类:训练后的模型能够将新图像分解为其组成元素,并搜索它已学习识别的模式和特征。这个过程称为图像分类,模型根据图像内容分配标签或类别。

  • • 对象识别与定位:图像识别不仅限于分类,还包括对象识别和图像检测,模型不仅能识别图像中的对象,还能定位它们,这在安全等领域的应用中尤为重要。

  • • 图像分割:图像分割是图像识别的一个技术,特别适用于医学图像分析,可以将图像分割成多个部分,每个部分对应不同的对象或区域,允许进行更详细和深入的分析。

  • • 应用领域:图像识别技术的应用非常广泛,从安全领域的面部识别技术,到零售和市场营销的产品识别与分类,再到医疗图像分析,图像识别技术都在发挥着重要作用。

  • • 技术发展:随着技术的不断进步,图像识别在自动驾驶车辆、医学诊断、增强现实和机器人技术等领域的潜在应用不断扩大。

  • • 未来展望:图像识别的未来充满希望,预计该技术将变得更加精细,并在日常生活中提供更个性化的体验,通过识别特征和偏好来增强日常功能。

  • • 实现步骤:构建有效的图像识别模型涉及收集和准备图像数据集、使用学习算法进行训练、使用检测算法进行准确性评估等关键步骤。

  • • 专用应用:面部识别是图像识别的一个专业应用,它在安全和个人识别方面得到了广泛使用。

扩展地址:https://github.com/google/sd-webui-image-recognition

Openpose Editor 姿态编辑

骨架编辑,识别图片中的人物姿态,调整人物的姿势,它与 ControlNet 插件配合使用,可以增强 Stable Diffusion 在生成人物图像时的姿态控制能力。

  • • 姿态编辑:用户可以通过选择关节并使用鼠标旋转来编辑3D模型的姿态。

  • • 手部编辑:Openpose Editor 允许用户选择手部骨骼,并使用界面上的彩色圆圈来微调手部的位置。

  • • 生成地图:该工具可以生成和可视化深度、法线和Canny地图,这些地图有助于提高AI绘图的质量。

  • • 保存/加载场景:内置的保存和加载功能允许用户保存编辑进度,并在以后恢复工作。

  • • 调整身体参数:用户可以调整各种身体参数,如身高、体重和肢体长度,以创建自定义的3D模型。

  • • 场景导航:提供了旋转和移动场景的功能,使用户能够从不同角度查看和编辑姿态。

  • • 与其他工具集成:Openpose Editor 常与 ControlNet 插件一起使用,ControlNet 利用提取的姿态信息生成火柴人姿态图,然后用户可以通过 Openpose Editor 进行编辑。

  • • 安装与使用:可以通过 Stable Diffusion WebUI 的扩展功能进行在线安装,或者手动下载并安装到 Stable Diffusion 的扩展目录中。

  • • 实战应用:在实际使用中,用户可以将目标姿势图片粘贴到 ControlNet 中,选择 Openpose 作为控制类型,并通过编辑器调整姿态,然后利用编辑后的姿态图进行图像生成。

  • • 社区资源:存在许多在线资源和教程,包括视频和文字说明,帮助用户更好地理解和使用 Openpose Editor。

3d-open-pose-editor 3D姿态编辑

3D Openpose Editor是一个用于Stable Diffusion的插件,它允许用户通过一个基于Web的界面编辑和创建3D人体姿态。这个工具使用户能够自定义人体模型的姿势,并且可以微调手部位置,生成深度、法线和Canny地图来增强AI绘图的效果。3D Openpose Editor为Stable Diffusion用户提供了一个强大的工具,可以创建更加精确和定制化的人体姿态,进而生成更加符合预期的图像,以下是关于3D Openpose Editor的一些关键特点和使用方法:关键特点:

  • • 姿态编辑:用户可以通过选择关节并使用鼠标旋转来编辑3D模型的姿态。

  • • 手部编辑:允许用户选择手部骨骼,并使用界面上的彩色圆圈来微调手部的位置。

  • • 生成地图:可以生成和可视化深度、法线和Canny地图,这些地图有助于提升AI生成图像的细节和质量。

  • • 保存/加载/恢复场景:内置的保存和加载功能使用户能够保存进度并在以后恢复工作。

  • • 调整身体参数:可以调整身高、体重和四肢长度等不同的身体参数,以创建自定义的3D模型。使用方法:

  • • 场景导航:点击并拖动空白区域可以旋转场景;按住鼠标右键并移动鼠标可以移动场景。

  • • 身体操纵:点击关节选择它,然后按住彩色圆圈并移动鼠标来旋转选定的关节。

  • • 调整身体参数:点击身体选择它,然后在菜单中点击“身体参数”进行调整。

  • • 调整输出分辨率:在菜单中更改“宽度”或“高度”来控制输出分辨率。

  • • 其他功能:按X键切换到移动模式,可以移动整个身体;按D键删除整个身体。

DWpose 手部修复

强化版OpenPose模型,对手部动态识别有更好的理解能力。DWpose 是一个用于 Stable Diffusion 的手部和脚部修复插件,强化版OpenPose模型,对手部动态识别有更好的理解能力,它提供了一种强大的预处理方法,以改善生成图像中手部和脚部的细节和准确性。

  • • 提高识别准确率:DWpose 旨在提供比传统 Openpose 更为精确的骨骼图识别,尤其是在手部和面部识别方面。

  • • 减少异常:在生成图像时,DWpose 可以显著降低出现“六指琴魔”等异常情况的概率,从而提高图像质量。

  • • 易于安装:如果用户使用的是秋叶整合包,DWpose 可能已经包含在最新版的 Controlnet 插件中。对于其他用户,可以通过扩展从网址安装的方式添加 DWpose。

  • • 模型文件下载:使用 DWpose 需要下载额外的模型文件,这些文件可能较大,建议用户预先下载并准备好。

  • • 存储路径:DWpose 的模型文件存放路径与其它插件不同,用户需要将下载的模型文件放置在指定的目录下。

  • • 社区反馈:根据社区反馈,DWpose 在手部和脚部的细节处理上表现优秀,是 Stable Diffusion 用户的一个推荐选择。

  • • 使用教程:存在多个视频教程和文章,详细介绍了 DWpose 的安装和使用过程,帮助用户更好地利用这个工具。

  • • 效果对比:DWpose 与 Openpose_full 的效果对比显示,DWpose 在手部识别、面部识别、体态识别等方面都有所提升。

  • • 多人场景处理:DWpose 同样适用于多人场景,能够提供准确的骨骼图,帮助生成更自然的合影图像。

  • • 插件优势:DWpose 插件的优势在于其简单直观的操作和高效的出图质量,尤其适合需要对人物姿态进行精细控制的场景。

扩展地址:https://github.com/IDEA-Research/DWPose

Depth lib 手势库

Depth Library 是一个为 Stable Diffusion 设计的扩展插件,它通过使用深度图来改善 AI 生成的图像中手部的姿态和细节。该插件包含一个手势库,允许用户选择和定制手部的姿态,以用于图像生成过程中。

  • • 手势库功能:Depth Library 提供了一个手势库,其中包含多种预设的手部姿态,用户可以根据需要选择不同的手势。

  • • 自定义手势:除了预设的手势,用户还可以创建和上传自定义手势,增加了手势的多样性和个性化。

  • • 手势与骨架结合:Depth Library 可以与 PoseX 等骨架工具结合使用,进一步提升手部绘制的准确性。

  • • 手势调整:用户可以对手势进行调整,包括位置、大小和方向,以确保手势与图像中的其他元素协调一致。

  • • 深度图使用:手势库中的手势通常以深度图的形式存在,这使得它们可以更自然地融入到生成的图像中。

  • • 安装和使用:Depth Library 可以通过 Stable Diffusion 的扩展面板进行安装,安装后用户可以在专门的标签页中访问手势库。

  • • 社区贡献:该插件是开源的,由社区成员开发和维护,用户可以从 GitHub 等平台下载和更新。

  • • 教程和示例:存在多个教程和示例,包括视频和图文说明,帮助用户了解如何使用 Depth Library 及其手势库。

  • • 手势透明度调节:一些资料提到,未来可能会给手势库中的手势添加透明通道调节的功能,从而控制手势渲染的强度。

扩展地址:https://github.com/jexom/sd-webui-depth-lib

Inpaint Anything 蒙版换装换脸

Inpaint Anything 是一个功能强大的图像编辑工具,可用于删除和替换图像中的任何内容,它允许用户通过使用蒙版(mask)来修改图像的特定部分。它使用人工智能来自动识别和修复图像中的缺陷,无需使用遮罩。删除图像中的不需要的对象或瑕疵、修复图像中的损坏或损坏、替换图像中的对象或背景、创建创意图像效果。

  • • 蒙版编辑:用户可以创建蒙版来指定图像中需要修改或隐藏的区域,比如去除图像中的物体、修复瑕疵或替换背景。

  • • 换装换脸:Inpaint Anything 可以用于换装或换脸,用户只需对人物的服装或面部区域创建蒙版,然后用新的衣服或面孔覆盖。

  • • 细节修复:该工具能够处理图像的细节部分,如修复旧照片中的损坏区域或去除图像中的不想要的元素。

  • • 智能填充:Inpaint Anything 利用先进的算法智能填充蒙版区域,使修改后的图像看起来自然,不露痕迹。

  • • 批量处理:支持对多张图片进行批量处理,提高编辑效率。

  • • 用户界面:通常提供直观的用户界面,使得即使是非专业用户也能轻松上手。

  • • 多种模式:可能包括多种编辑模式,如“修复”、“替换”、“扩展”等,以适应不同的图像编辑需求。

  • • 纹理保持:在替换或修复图像的某个区域时,Inpaint Anything 能够保持周围纹理和色彩的一致性。

  • • 应用广泛:除了换脸和换装,Inpaint Anything 还可以用于广告设计、艺术创作、照片修饰等多个领域。

  • • 插件支持:作为一个插件,Inpaint Anything 可以集成到其他图像编辑软件或平台中,如 Stable Diffusion,扩展其功能。

扩展地址:https://github.com/Uminosachi/sd-webui-inpaint-anything

IP Adapter

腾讯AI Lab研发的控图模型,用于风格迁移,它允许用户在生成图像时使用自定义的 IP(即,个人标识符或特定的风格代码)来控制图像的特定特征。

  • • 个性化控制:IP-Adapter 允许用户通过输入自定义的 IP 来引导 Stable Diffusion 生成具有特定风格或特征的图像。

  • • 风格适配:该插件可以适配不同的艺术风格,用户可以根据自己的需求定制生成图像的风格。

  • • 易于使用:用户只需在生成图像时输入相应的 IP,即可获得期望的特定风格或效果。

  • • 社区共享:用户可以在社区中分享自己发现或创建的 IP,以便其他用户也能使用这些风格标识符。

  • • 实验性工具:IP-Adapter 可能包含一些实验性的功能,允许用户探索 Stable Diffusion 的不同可能性。

  • • 多样性:该插件可以支持多种类型的图像生成任务,包括但不限于人物肖像、风景、物体等。

  • • 参数调整:在使用 IP-Adapter 时,用户可能需要调整一些参数,如权重或强度,以获得最佳效果。

  • • 资源消耗:使用特定的 IP 可能会影响图像生成的性能,如增加计算资源的消耗。

  • • 社区支持:IP-Adapter 的使用和开发通常由社区驱动,用户可以在社区论坛或GitHub等平台上找到支持和更新。

扩展地址:https://github.com/tencent-ailab/IP-Adapter https://ip-adapter.github.io/

Recolor 重新上色

给图片填充颜色,适合修复黑白老旧照片,它涉及更改图像中的颜色以实现特定的视觉效果或修正颜色不平衡等问题。

  • • 风格化上色:为黑白图像添加颜色,或重新上色旧照片和艺术作品,使其焕发新生。

  • • 艺术创作:艺术家和设计师可以使用重新上色来实验不同的颜色方案,以找到最佳的视觉效果。

  • • 颜色校正:修正图像中的颜色偏差,如过饱和、色偏或光线不足导致的颜色失真。

  • • 主题匹配:将图像的颜色调整为与特定主题或品牌颜色相匹配。

  • • 季节变化:例如,将夏季风景的照片重新上色以模拟冬季雪景。

  • • 情感表达:通过颜色变化传达不同的情感或氛围,如将原本温暖色调的图像调整为冷色调以表达孤独或悲伤。

  • • 模拟不同光照:模拟不同光照条件下的图像颜色,如日光、阴天或特定颜色的灯光。

  • • 技术探索:在 Stable Diffusion 中,Recolor 可能结合了 AI 技术,以智能识别图像内容并进行自然而和谐的颜色替换。

  • • 用户界面:Recolor 插件可能提供直观的用户界面,允许用户选择颜色并预览上色效果。

  • • 批量处理:支持对多张图片进行批量重新上色,提高工作效率。

  • • 细节保留:高质量的重新上色技术能够保留图像的纹理和细节,避免颜色渗透或边缘不清晰。

  • • 插件集成:Recolor 作为插件可以集成到图像编辑软件或 Stable Diffusion 的 WebUI 中,提供额外的上色功能。

T2I Adapter 文生图适配器

T2I-Adapter,即 “Text-to-Image Adapter”(文本到图像适配器),由腾讯ARC实验室和北大视觉信息智能学习实验室联合研发,提供额外的控制引导,是一种专门为 Stable Diffusion 或类似文本到图像生成模型设计的插件,它旨在改善和调整生成图像与输入文本提示(prompt)之间的匹配度。

  • • 文本适配:T2I-Adapter 可以更精确地将文本提示转换成图像,提高文本描述与生成图像之间的相关性。

  • • 风格控制:该插件可能允许用户指定或调整生成图像的特定风格,如写实、卡通或超现实主义等。

  • • 细节优化:通过适配器,用户可以控制图像的细节级别,如纹理、光线效果和复杂性。

  • • 参数调整:提供多种参数调整选项,使用户能够微调生成过程,以获得期望的视觉效果。

  • • 用户界面:可能包括一个直观的用户界面,使得设置调整和预览生成效果变得简单。

  • • 模型兼容性:T2I-Adapter 旨在与多种 Stable Diffusion 模型兼容,提供广泛的应用范围。

  • • 社区贡献:作为一个插件,它可能由社区成员开发,并通过社区反馈不断优化。

  • • 安装简便:通常可以通过 Stable Diffusion 的扩展或插件系统轻松安装和更新。

  • • 创意支持:帮助艺术家和设计师实现更复杂的创意构想,通过适配器更好地将创意转化为可视化图像。

  • • 教程和文档:提供详细的教程和文档,帮助用户理解如何使用 T2I-Adapter 插件以提高图像生成的质量。

扩展地址:https://github.com/TencentARC/T2I-Adapter https://huggingface.co/TencentARC/T2I-Adapter/tree/main/models

Tagcomplete tag自动补全

模型文件、Lora模型越来越多,而且有的名字又长又臭记不住,写起 prompts 来也不高效,有无办法优化呢?这里推荐插件 Tagacomplete,旨在帮助用户在创建图像时自动补全提示词(prompts),可以快速补全各类模型名称。

  • • 自动补全:当用户开始输入与图像生成相关的描述性词汇时,Tagcomplete 会自动提供完整的提示词建议。

  • • 提高效率:通过减少手动输入的时间,用户可以更快地构建和修改他们的提示词,从而提高整体的工作效率。

  • • 避免拼写错误:自动补全功能有助于减少拼写错误,确保提示词的准确性,这对于生成高质量的图像至关重要。

  • • 丰富的词汇库:Tagcomplete 通常包含一个广泛的词汇库,涵盖多种主题和风格,以适应不同的图像生成需求。

  • • 个性化体验:根据用户的使用习惯和偏好,Tagcomplete 可以提供个性化的补全建议。

  • • 易于集成:作为一个插件,Tagcomplete 可以轻松集成到现有的 Stable Diffusion 用户界面中。

  • • 社区支持:由于 Stable Diffusion 的开源特性,Tagcomplete 插件可能由社区成员开发,并持续更新以适应用户的需求。

  • • 多语言支持:Tagcomplete 可能支持多种语言,使得不同语言背景的用户都能受益于自动补全功能。

  • • 智能学习:某些版本的 Tagcomplete 可能具备机器学习功能,能够根据用户的输入习惯不断优化补全建议。

  • • 文档和教程:通常,Tagcomplete 插件会配备使用文档和教程,帮助用户快速掌握如何使用自动补全功能。

输入:

  • • <e: 会展示 embeddings 名字

  • • <l: 或者<lora: 会展现 Lora 名字

  • • <h: 或者<hypernet: 会展现可选的 Hypernetworks

Deforum 图片转出视频

Deforum 是一个可以将图像转换成视频的工具或插件。在 Stable Diffusion 或其他图像生成系统的上下文中

  • • 图像序列转换:Deforum 可以将一系列图像转换成视频格式,这对于将多张生成的图像合并为一个连续播放的视频非常有用。

  • • 自定义帧率:用户可以自定义视频的帧率,以控制视频的播放速度。

  • • 编辑功能:可能包括一些基本的视频编辑功能,如裁剪、调整顺序或添加过渡效果。

  • • 多种格式支持:支持将图像转换成多种流行的视频格式,如 MP4、AVI 等。

  • • 易于使用:通常具有用户友好的界面,使得转换过程简单直观。

  • • 批量处理:支持批量转换多张图片,提高效率。

  • • 图像优化:在转换过程中,Deforum 可能会对图像进行一些优化处理,以确保视频的质量和流畅性。

  • • 音频添加:一些版本的 Deforum 可能允许用户为视频添加背景音乐或声效。

  • • 输出设置:提供视频输出设置,包括分辨率、比特率等,以满足不同质量和大小的需求。

  • • 插件集成:如果 Deforum 是一个插件,它可能可以集成到 Stable Diffusion 的 WebUI 或其他图像处理平台中。

Civitai Helper

Civitai-Helper 是一个为 Stable Diffusion 用户设计的插件,旨在简化从 Civitai 平台下载和使用模型的过程。Civitai 是一个流行的在线社区和市场,用户可以分享、发现和使用各种 AI 模型和资源。

  • • 模型下载:该插件可以帮助用户直接从 Civitai 平台下载所需的模型文件。

  • • 预览图下载:除了模型文件,Civitai-Helper 还可以下载模型的预览图像,方便用户在本地查看模型效果。

  • • 模型管理:提供模型管理功能,帮助用户组织和分类下载的模型文件。

  • • 一键安装:对于兼容的模型,Civitai-Helper 可能支持一键安装,自动将模型文件放置到正确的目录并激活。

  • • 本地与云端同步:帮助用户将本地的模型与 Civitai 云端的模型信息进行同步。

  • • 社区互动:可能包含与 Civitai 社区互动的功能,如点赞、评论或分享模型。

  • • 搜索与发现:提供搜索功能,方便用户在 Civitai 平台上查找和探索新的模型。

  • • 用户界面:Civitai-Helper 通常包含一个直观的用户界面,使得上述功能易于访问和使用。

  • • 兼容性:该插件旨在与 Stable Diffusion 的 WebUI 兼容,为用户提供无缝的集成体验。

  • • 更新通知:可能会通知用户有关新模型或插件更新的信息。

  • • 教程和文档:提供使用教程和文档,帮助用户了解如何使用 Civitai-Helper 插件。

文章提到的所有插件都已经打包好放在网盘中了,无需自行查找,有需要的小伙伴文末扫码自行获取。

写在最后

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值