DataWhale夏令营第四期魔搭- AIGC方向 task02笔记#Datawhale AI夏令营

Task2:精读代码,实战进阶

聊聊相关:虽然现在很多的AI绘图都能被大家说“一眼鉴AI”,但随着技术日新月异的变化,我们也需要掌握辨识和判别他的能力。

Deepfake是一种使用人工智能技术生成的伪造媒体,特别是视频和音频,它们看起来或听起来非常真实,但实际上是由计算机生成的。这种技术通常涉及到深度学习算法,特别是生成对抗网络(GANs),它们能够学习真实数据的特征,并生成新的、逼真的数据。

通过以下几点或许可以帮助我们更好地判断。

  • 观察图片的细节。仔细检查人物的面部特征,尤其是眼睛和嘴巴

  • 检查光线和阴影。分析图片中的光源是否一致,阴影的方向是否与光源相符,是否存在不自然的光线或阴影

  • 分析像素。放大图片,寻找是否有模糊或像素化的部分。

  • 注意背景。检查背景中是否有不协调的元素,比如物体边缘是否平滑,背景中是否有不自然的重复模式。

而这些细节上的AI特性,也许就是我们在某些特定场景下需要解决的挑战。

Part1:磨刀准备一一认识通义千问

https://tongyi.aliyun.com/qianwen/

这个就不必多说了吧,真的很实用啊(泪目),就是提问的时候需要注意一下字数限制,然后还有提问的方式,争取让AI清晰明白你的需求即可。

Part2:精读baseline——从零入门AI生图

首先我们来直观感知下这个文生图代码的框架结构:

接着我们利用关键问题的引用,键入相关需求

你是一个优秀的python开发工程师,现在我们需要你帮我们分析这个代码的主体框架,
你需要把代码按照工作流分成几部分,用中文回答我的问题。{此处替换前面的代码}

baseline中代码如下:

!pip install simple-aesthetics-predictor

!pip install -v -e data-juicer

!pip uninstall pytorch-lightning -y
!pip install peft lightning pandas torchvision

!pip install -e DiffSynth-Studio

from modelscope.msdatasets import MsDataset

ds = MsDataset.load(
    'AI-ModelScope/lowres_anime',
    subset_name='default',
    split='train',
    cache_dir="/mnt/workspace/kolors/data"
)

import json, os
from data_juicer.utils.mm_utils import SpecialTokens
from tqdm import tqdm


os.makedirs("./data/lora_dataset/train", exist_ok=True)
os.makedirs("./data/data-juicer/input", exist_ok=True)
with open("./data/data-juicer/input/metadata.jsonl", "w") as f:
    for data_id, data in enumerate(tqdm(ds)):
        image = data["image"].convert("RGB")
        image.save(f"/mnt/workspace/kolors/data/lora_dataset/train/{data_id}.jpg")
        metadata = {"text": "二次元", "image": [f"/mnt/workspace/kolors/data/lora_dataset/train/{data_id}.jpg"]}
        f.write(json.dumps(metadata))
        f.write("\n")

data_juicer_config = """
# global parameters
project_name: 'data-process'
dataset_path: './data/data-juicer/input/metadata.jsonl'  # path to your dataset directory or file
np: 4  # number of subprocess to process your dataset

text_keys: 'text'
image_key: 'image'
image_special_token: '<__dj__image>'

export_path: './data/data-juicer/output/result.jsonl'

# process schedule
# a list of several process operators with their arguments
process:
    - image_shape_filter:
        min_width: 1024
        min_height: 1024
        any_or_all: any
    - image_aspect_ratio_filter:
        min_ratio: 0.5
        max_ratio: 2.0
        any_or_all: any
"""
with open("data/data-juicer/data_juicer_config.yaml", "w") as file:
    file.write(data_juicer_config.strip())

!dj-process --config data/data-juicer/data_juicer_config.yaml

import pandas as pd
import os, json
from PIL import Image
from tqdm import tqdm


texts, file_names = [], []
os.makedirs("./data/data-juicer/output/images", exist_ok=True)
with open("./data/data-juicer/output/result.jsonl", "r") as f:
    for line in tqdm(f):
        metadata = json.loads(line)
        texts.append(metadata["text"])
        file_names.append(metadata["image"][0])

df = pd.DataFrame({"text": texts, "file_name": file_names})
df.to_csv("./data/data-juicer/output/result.csv", index=False)

df

from transformers import CLIPProcessor, CLIPModel
import torch

model = CLIPModel.from_pretrained("openai/clip-vit-base-patch32")
processor = CLIPProcessor.from_pretrained("openai/clip-vit-base-patch32")

images = [Image.open(img_path) for img_path in df["file_name"]]
inputs = processor(text=df["text"].tolist(), images=images, return_tensors="pt", padding=True)

outputs = model(**inputs)
logits_per_image = outputs.logits_per_image  # this is the image-text similarity score
probs = logits_per_image.softmax(dim=1)  # we can take the softmax to get the probabilities

probs

from torch.utils.data import Dataset, DataLoader

class CustomDataset(Dataset):
    def __init__(self, df, processor):
        self.texts = df["text"].tolist()
        self.images = [Image.open(img_path) for img_path in df["file_name"]]
        self.processor = processor

    def __len__(self):
        return len(self.texts)

    def __getitem__(self, idx):
        inputs = self.processor(text=self.texts[idx], images=self.images[idx], return_tensors="pt", padding=True)
        return inputs

dataset = CustomDataset(df, processor)
dataloader = DataLoader(dataset, batch_size=8)

for batch in dataloader:
    outputs = model(**batch)
    logits_per_image = outputs.logits_per_image
    probs = logits_per_image.softmax(dim=1)
    print(probs)

import torch
from diffusers import StableDiffusionPipeline

torch.manual_seed(1)
pipe = StableDiffusionPipeline.from_pretrained("CompVis/stable-diffusion-v-1-4", torch_dtype=torch.float16)
pipe = pipe.to("cuda")

prompt = "二次元,一个紫色长发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌,手持话筒"
negative_prompt = "丑陋、变形、嘈杂、模糊、低对比度"
guidance_scale = 4
num_inference_steps = 50

image = pipe(
    prompt=prompt,
    negative_prompt=negative_prompt,
    guidance_scale=guidance_scale,
    num_inference_steps=num_inference_steps,
    height=1024,
    width=1024,
).images[0]

image.save("example_image.png")
image

from PIL import Image

torch.manual_seed(1)
image = pipe(
    prompt="二次元,日系动漫,演唱会的观众席,人山人海,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,舞台上衣着华丽的歌星们在唱歌",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("1.jpg")

torch.manual_seed(1)
image = pipe(
    prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,露出憧憬的神情",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,色情擦边",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("2.jpg")

torch.manual_seed(2)
image = pipe(
    prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,露出憧憬的神情",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,色情擦边",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("3.jpg")

torch.manual_seed(5)
image = pipe(
    prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙,对着流星许愿,闭着眼睛,十指交叉,侧面",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,扭曲的手指,多余的手指",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("4.jpg")

torch.manual_seed(0)
image = pipe(
    prompt="二次元,一个紫色中等长度头发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("5.jpg")

torch.manual_seed(1)
image = pipe(
    prompt="二次元,一个紫色长发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌,手持话筒",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("6.jpg")

torch.manual_seed(7)
image = pipe(
    prompt="二次元,紫色长发少女,穿着黑色连衣裙,试衣间,心情忐忑",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("7.jpg")

torch.manual_seed(0)
image = pipe(
    prompt="二次元,紫色长发少女,穿着黑色礼服,连衣裙,在台上唱歌",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("8.jpg")

import numpy as np
from PIL import Image


images = [np.array(Image.open(f"{i}.jpg")) for i in range(1, 9)]
image = np.concatenate([
    np.concatenate(images[0:2], axis=1),
    np.concatenate(images[2:4], axis=1),
    np.concatenate(images[4:6], axis=1),
    np.concatenate(images[6:8], axis=1),
], axis=0)
image = Image.fromarray(image).resize((1024, 2048))
image

返回的结果

这段代码主要分为以下几个部分:

1.安装和卸载依赖包

使用 !pip 命令来安装或卸载 Python 包。包括:

simple-aesthetics-predictor, data-juicer, peft, lightning, pandas, torchvision, 和 DiffSynth-Studio 的安装。

卸载 pytorch-lightning(使用 -y 自动确认卸载)。

2.加载数据集

使用 ModelScope 的 MsDataset 类加载名为 AI-ModelScope/lowres_anime 的数据集,并指定子集名称为 default 和分割为 train,缓存目录设置为 /mnt/workspace/kolors/data

3.数据预处理

  • 将数据集中的图像转换为 RGB 模式,并保存到指定目录。

  • 创建包含图像路径和文本描述的元数据文件 metadata.jsonl

  • 编写并保存 data_juicer_config.yaml 配置文件,用于后续的数据过滤和处理。

4.使用 Data-Juicer 进行数据处理

  • 使用 dj-process 命令根据配置文件对数据进行过滤和处理,生成 result.jsonl 文件。

5.数据整理与训练

  • 读取 result.jsonl 文件中的数据,并将其转换为 Pandas DataFrame,然后保存为 CSV 文件,并且将图片保存到./data/lora_dataset_processed/train文件夹下。

  • 下载模型download_models(["Kolors", "SDXL-vae-fp16-fix"])

  • 在前面模型的基础上,执行Lora微调训练

  • 加载微调后的模型

6.图像生成

  • 设置正向提示词,反向提示词,执行次数,图片尺寸

  • 设置随机种子,控制图片是否可以重复生成,并将图像保存为 .jpg 文件。

7.合并图像

  • 最后,将生成的多个图像合并成一个大图像,并调整大小。

整个流程涵盖了从数据加载、预处理、特征提取、模型预测到图像生成等多个方面。每一部分都有其特定的功能,共同构成了一个完整的二次元图像处理和生成的工作流。

执行过程如下:

返回结果图如下:

另外,还可以选择更改提问方式,例如:

你是一个优秀的python开发工程师,现在我们需要你帮我们逐行分析这个代码,
用中文回答我的问题。{此处替换前面的代码}

返回的结果

这段代码主要完成以下功能:

  1. 安装和卸载一些Python包。

  2. 从ModelScope加载一个名为lowres_anime的数据集,并保存图像到指定目录。

  3. 创建并处理一个用于数据清洗的JSONL文件。

  4. 使用data-juicer工具过滤和处理数据集。

  5. 将处理后的数据集转换为CSV格式。

  6. 根据数据集通过DiffSynth做Lora微调

  7. 加载Lora微调后的模型

  8. 设置提示词,用微调后的模型生成图片

你也根据自己的相关需要,对AI进行进一步的提问

Part3:实战演练

1.首先给出相关的提示词(可根据自己的需要进行相关调整)

2.自己在通义的返回的基础上,多多调整,争取打磨出一个最佳的提示词
3.最后在TASK1的基础上,修改相关提示词
  1. 双击进入baseline文件

  2. 找到生成图像的板块

  3. 依次替换8张图片的正向提示词和反向提示词

4.结果展示

场景1: 电竞选手小帽正在房间里偷偷玩游戏

  • 风格: 可爱漫画
  • 人物: 一个黑色头发的小帽弟弟
  • 场景: 坐在电竞椅上,上半身,蓝白色睡衣
  • 做啥事情: 偷偷打游戏,戴着耳机,专注地看着电脑屏幕
  • 提示词: "可爱漫画,一个黑色头发的小帽弟弟,戴着耳机,专注地看着电脑屏幕,偷偷打游戏,上半身,蓝白色睡衣,坐在电竞椅上"

场景2: 开始睡着了

  • 风格: 可爱漫画
  • 人物: 小帽弟弟
  • 场景: 躺在床上,盖着蓝色的被子
  • 做啥事情: 睡着了,手里还握着手机
  • 提示词: "可爱漫画,小帽弟弟躺在床上,盖着蓝色的被子,手里握着手机,睡着了,全身"

场景3: 进入梦乡,梦到自己来到了哥哥的演唱会

  • 风格: 可爱漫画
  • 人物: 小帽弟弟
  • 场景: 在一个演唱会现场
  • 做啥事情: 举着荧光棒,兴奋地看着舞台
  • 提示词: "可爱漫画,小帽弟弟举着荧光棒,兴奋地看着舞台,站在演唱会现场的人群中,上半身"

场景4: 哥哥正在台上唱歌,底下是一堆欢呼的观众

  • 风格: 可爱漫画
  • 人物: 哥哥
  • 场景: 在演唱会上
  • 做啥事情: 正在台上唱歌,观众欢呼
  • 提示词: "可爱漫画,哥哥在台上唱歌,底下是一堆欢呼的观众,舞台灯光闪烁,全身"

场景5: 太阳逐渐从地平线升了起来

  • 风格: 可爱漫画
  • 人物: 不需要人物
  • 场景: 日出时刻的地平线
  • 做啥事情: 太阳正从地平线上升起
  • 提示词: "可爱漫画,太阳逐渐从地平线升了起来,天空呈现出渐变的橙色和粉色,地平线"

场景6: 大家一边唱歌一边看日出

  • 风格: 可爱漫画
  • 人物: 小帽弟弟和朋友们
  • 场景: 在海边看日出
  • 做啥事情: 一边唱歌一边看日出
  • 提示词: "可爱漫画,小帽弟弟和朋友们一边唱歌一边看日出,站在海边,天空呈现出渐变的橙色和粉色,全身"

场景7: 哥哥敲了敲门,叫他起床

  • 风格: 可爱漫画
  • 人物: 哥哥和小帽弟弟
  • 场景: 卧室门口
  • 做啥事情: 哥哥敲门叫小帽起床
  • 提示词: "可爱漫画,哥哥敲了敲门,叫小帽起床,小帽弟弟躺在床上,盖着蓝色的被子,卧室门口,上半身"

场景8: 哥哥给他端来了糊面包早餐

  • 风格: 可爱漫画
  • 人物: 哥哥和小帽弟弟
  • 场景: 厨房餐桌旁
  • 做啥事情: 哥哥端着一盘糊面包给小帽吃
  • 提示词: "可爱漫画,哥哥端着一盘糊面包给小帽吃,小帽弟弟坐在餐桌旁,穿着睡衣,上半身,厨房餐桌旁"

 

 

 

 

Part4:更多的选择一一浅尝scepter webui

scepter webUI私有部署
魔搭社区提供的体验地址里面缺失了微调模型的功能,如果大家希望能使用secpter完整的功能,我们可以将其私有部署到我们自己的服务器。
魔搭体验网址:https://www.modelscope.cn/studios/iic/scepter_studio
github地址:https://github.com/modelscope/scepter
可以通过官方readme文件中的教程进行操作

  • 16
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值