AIGC笔记--Diffuser的基本使用

目录

1--加载模型

2--半精度推理

3--固定随机种子

4--更改扩散步数

5--设置negative_prompt


1--加载模型

        以下代码使用 from_pretrained() 来加载预训练模型,使用参数cache_dir来指定下载模型的存储地址;

from diffusers import DiffusionPipeline, EulerDiscreteScheduler

if __name__ == "__main__":
    # load model
    pipe = DiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5", cache_dir = "./models").to("cuda")
    prompt_content = "A cat is sleeping."
    image = pipe(prompt = prompt_content).images[0]
    image.save('./test.jpg')
    
    # print pipeline
    print(pipe)
    
    # Swap scheduler
    pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config)
    print(pipe)

2--半精度推理

        通过显式指定revision参数和torch_dtype参数来加载半精度推理模型

import torch
from diffusers import DiffusionPipeline

if __name__ == "__main__":
    # load model
    pipe = DiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5", cache_dir = "./models", revision = "fp16", torch_dtype = torch.float16).to("cuda")
    prompt_content = "A cat is sleeping."
    
    # inference
    image = pipe(prompt = prompt_content).images[0]
    image.save('./test.jpg')

3--固定随机种子

        通过设置generator参数来固定随机种子,确保每一轮生成的结果保持不变;

import torch
from diffusers import DiffusionPipeline

if __name__ == "__main__":
    # load model
    pipe = DiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5", cache_dir = "./models").to("cuda")
    prompt_content = "A cat is sleeping."
    
    # fixing the random seed
    generator = torch.Generator("cuda").manual_seed(1024)
    
    # inference
    image = pipe(prompt = prompt_content, generator = generator).images[0]
    image.save('./test.jpg')

4--更改扩散步数

        通过显式指定num_inference_steps参数可以更改推理的扩散步数;

from diffusers import DiffusionPipeline

if __name__ == "__main__":
    # load model
    pipe = DiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5", cache_dir = "./models").to("cuda")
    prompt_content = "A cat is sleeping."
    
    # inference
    image = pipe(prompt = prompt_content, num_inference_steps=15).images[0]
    image.save('./test.jpg')

5--设置negative_prompt

        使用negative_prompt来进一步引导生成的内容,negative_prompt一般是希望生成结果所不包含的内容;下面的代码示例展示了希望生成的内容尽可能不包含ears的信息。

import torch
from diffusers import DiffusionPipeline

if __name__ == "__main__":
    # load model
    pipe = DiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5", cache_dir = "./models").to("cuda")
    prompt_content = "A cat is sleeping."
    # fixing the random seed
    generator = torch.Generator("cuda").manual_seed(1024)
    # inference
    image = pipe(prompt = prompt_content, generator = generator, negative_prompt = "ears").images[0]
    image.save('./test.jpg')

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值