Datawhale & modelscope AI夏令营 Task2精度代码,实战进阶

目录

我对当前AI生图技术的认知。

了解AI生图技术目标

AI生图工具

学习社区与资源平台

学习前的准备

学习工具--认识通义千问

精读baseline——从零入门AI生图

分析代码的主体架构

输入的Prompt

返回的结果

第一部分:环境准备

第二部分:数据预处理与转换

第三部分:数据分析与模型应用

第四部分:生成新图像

第五部分:图像展示

执行过程

逐行解释代码

输入的问题

返回的结果

实战演练--基于话剧的连环画制作

数据准备

提示词

询问通义

执行代码

生成图像


我对当前AI生图技术的认知。

了解AI生图技术目标

我认为了解AI技术的目标是为了更快更高效的调整或是实现自己的目标,AI技术始终是实现个人目标的过程和手段,绝不是最终结果。我们可以有很多个目标就需要一直持续关注不同的AI技术。

我想通过AI生图技术实现各种节日海报、头像、表情包、有意思的图片发发朋友圈;

实现房屋装修效果图,辅助房屋设计装修;

实现应用程序图标和界面的设计;

实现游戏图标、界面、人物的设计等等。

AI生图工具

当前AI生图工具种类很多。

开源的有StableDiffision、Flux和Kolors等等,Kolors最近才了解到,还在摸索中;

闭源的有Midjourney、Dell-3等等;

学习社区与资源平台

Datawhale学习模式很自由,学习氛围很纯粹,这总学习方式很适合现在的我。

魔搭社区之前有简单的了解,但一直没深入研究,之前都是在创空间看看别人的效果就没继续研究了。接下来会一直深入了解这个平台。

学习前的准备

学习工具--认识通义千问

官方链接通义tongyi.ai_你的全能AI助手

使用感觉效果都还不错,之前用来编写策划方案,产品需求文档都能给出比较全的角度,当然最后还需自己调整才能使用。

精读baseline——从零入门AI生图

让AI助手从两个角度帮助我们:

  1. 分析代码的主题架构;
  2. 逐行代码解析。

代码内容

!pip install simple-aesthetics-predictor

!pip install -v -e data-juicer

!pip uninstall pytorch-lightning -y
!pip install peft lightning pandas torchvision

!pip install -e DiffSynth-Studio

from modelscope.msdatasets import MsDataset

ds = MsDataset.load(
    'AI-ModelScope/lowres_anime',
    subset_name='default',
    split='train',
    cache_dir="/mnt/workspace/kolors/data"
)

import json, os
from data_juicer.utils.mm_utils import SpecialTokens
from tqdm import tqdm


os.makedirs("./data/lora_dataset/train", exist_ok=True)
os.makedirs("./data/data-juicer/input", exist_ok=True)
with open("./data/data-juicer/input/metadata.jsonl", "w") as f:
    for data_id, data in enumerate(tqdm(ds)):
        image = data["image"].convert("RGB")
        image.save(f"/mnt/workspace/kolors/data/lora_dataset/train/{data_id}.jpg")
        metadata = {"text": "二次元", "image": [f"/mnt/workspace/kolors/data/lora_dataset/train/{data_id}.jpg"]}
        f.write(json.dumps(metadata))
        f.write("\n")

data_juicer_config = """
# global parameters
project_name: 'data-process'
dataset_path: './data/data-juicer/input/metadata.jsonl'  # path to your dataset directory or file
np: 4  # number of subprocess to process your dataset

text_keys: 'text'
image_key: 'image'
image_special_token: '<__dj__image>'

export_path: './data/data-juicer/output/result.jsonl'

# process schedule
# a list of several process operators with their arguments
process:
    - image_shape_filter:
        min_width: 1024
        min_height: 1024
        any_or_all: any
    - image_aspect_ratio_filter:
        min_ratio: 0.5
        max_ratio: 2.0
        any_or_all: any
"""
with open("data/data-juicer/data_juicer_config.yaml", "w") as file:
    file.write(data_juicer_config.strip())

!dj-process --config data/data-juicer/data_juicer_config.yaml

import pandas as pd
import os, json
from PIL import Image
from tqdm import tqdm


texts, file_names = [], []
os.makedirs("./data/data-juicer/output/images", exist_ok=True)
with open("./data/data-juicer/output/result.jsonl", "r") as f:
    for line in tqdm(f):
        metadata = json.loads(line)
        texts.append(metadata["text"])
        file_names.append(metadata["image"][0])

df = pd.DataFrame({"text": texts, "file_name": file_names})
df.to_csv("./data/data-juicer/output/result.csv", index=False)

df

from transformers import CLIPProcessor, CLIPModel
import torch

model = CLIPModel.from_pretrained("openai/clip-vit-base-patch32")
processor = CLIPProcessor.from_pretrained("openai/clip-vit-base-patch32")

images = [Image.open(img_path) for img_path in df["file_name"]]
inputs = processor(text=df["text"].tolist(), images=images, return_tensors="pt", padding=True)

outputs = model(**inputs)
logits_per_image = outputs.logits_per_image  # this is the image-text similarity score
probs = logits_per_image.softmax(dim=1)  # we can take the softmax to get the probabilities

probs

from torch.utils.data import Dataset, DataLoader

class CustomDataset(Dataset):
    def __init__(self, df, processor):
        self.texts = df["text"].tolist()
        self.images = [Image.open(img_path) for img_path in df["file_name"]]
        self.processor = processor

    def __len__(self):
        return len(self.texts)

    def __getitem__(self, idx):
        inputs = self.processor(text=self.texts[idx], images=self.images[idx], return_tensors="pt", padding=True)
        return inputs

dataset = CustomDataset(df, processor)
dataloader = DataLoader(dataset, batch_size=8)

for batch in dataloader:
    outputs = model(**batch)
    logits_per_image = outputs.logits_per_image
    probs = logits_per_image.softmax(dim=1)
    print(probs)

import torch
from diffusers import StableDiffusionPipeline

torch.manual_seed(1)
pipe = StableDiffusionPipeline.from_pretrained("CompVis/stable-diffusion-v-1-4", torch_dtype=torch.float16)
pipe = pipe.to("cuda")

prompt = "二次元,一个紫色长发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌,手持话筒"
negative_prompt = "丑陋、变形、嘈杂、模糊、低对比度"
guidance_scale = 4
num_inference_steps = 50

image = pipe(
    prompt=prompt,
    negative_prompt=negative_prompt,
    guidance_scale=guidance_scale,
    num_inference_steps=num_inference_steps,
    height=1024,
    width=1024,
).images[0]

image.save("example_image.png")
image

from PIL import Image

torch.manual_seed(1)
image = pipe(
    prompt="二次元,日系动漫,演唱会的观众席,人山人海,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,舞台上衣着华丽的歌星们在唱歌",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("1.jpg")

torch.manual_seed(1)
image = pipe(
    prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,露出憧憬的神情",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,色情擦边",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("2.jpg")

torch.manual_seed(2)
image = pipe(
    prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,露出憧憬的神情",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,色情擦边",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("3.jpg")

torch.manual_seed(5)
image = pipe(
    prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙,对着流星许愿,闭着眼睛,十指交叉,侧面",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,扭曲的手指,多余的手指",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("4.jpg")

torch.manual_seed(0)
image = pipe(
    prompt="二次元,一个紫色中等长度头发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("5.jpg")

torch.manual_seed(1)
image = pipe(
    prompt="二次元,一个紫色长发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌,手持话筒",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("6.jpg")

torch.manual_seed(7)
image = pipe(
    prompt="二次元,紫色长发少女,穿着黑色连衣裙,试衣间,心情忐忑",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("7.jpg")

torch.manual_seed(0)
image = pipe(
    prompt="二次元,紫色长发少女,穿着黑色礼服,连衣裙,在台上唱歌",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("8.jpg")

import numpy as np
from PIL import Image


images = [np.array(Image.open(f"{i}.jpg")) for i in range(1, 9)]
image = np.concatenate([
    np.concatenate(images[0:2], axis=1),
    np.concatenate(images[2:4], axis=1),
    np.concatenate(images[4:6], axis=1),
    np.concatenate(images[6:8], axis=1),
], axis=0)
image = Image.fromarray(image).resize((1024, 2048))
image

分析代码的主体架构

输入的Prompt

你是一个优秀的python开发工程师,现在我们需要你帮我们分析这个代码的主体框架,你需要把代码按照工作流分成几部分,用中文回答我的问题。{此处替换前面的代码}

返回的结果

这段代码主要分为以下几个部分:

第一部分:环境准备

  1. 安装依赖包
    • 使用 !pip 命令安装一系列Python库,包括 simple-aesthetics-predictor, data-juicer, peft, lightning, pandas, torchvision, 和 DiffSynth-Studio
    • 卸载并重新安装 pytorch-lightning
  2. 加载数据集
    • 从 ModelScope 加载名为 lowres_anime 的数据集,并指定子集名称和拆分类型为训练集。
    • 指定数据集的缓存目录。

第二部分:数据预处理与转换

  1. 创建目录
    • 创建用于存储处理后图像的目录。
  2. 构建元数据文件
    • 遍历数据集中的每个样本,将图像转换为 RGB 格式并保存到指定路径。
    • 构建包含文本描述和图像路径的元数据,并将其写入JSONL格式的文件中。
  3. 配置并运行 DataJuicer
    • 定义一个 YAML 配置文件,设置 DataJuicer 的参数,包括过滤条件等。
    • 使用命令行工具 dj-process 处理数据集。

第三部分:数据分析与模型应用

  1. 读取处理后的数据
    • 读取 DataJuicer 输出的 JSONL 文件,并将数据转换为 Pandas DataFrame 格式。
    • 将DataFrame保存为 CSV 文件。
  2. 使用 CLIP 模型计算相似度
    • 加载预训练的 CLIP 模型和处理器。
    • 对图像和文本进行编码,并计算图像-文本相似度分数。
  3. 构建 PyTorch 数据集和数据加载器
    • 定义一个自定义的 PyTorch 数据集类 CustomDataset,用于处理图像和文本数据。
    • 创建数据加载器以方便批量处理数据。

第四部分:生成新图像

  1. 使用 StableDiffusionPipeline 生成图像
    • 加载预训练的 StableDiffusion 模型。
    • 使用不同的提示(prompt)和负面提示(negative prompt)生成多个二次元风格的图像,并保存到磁盘。

第五部分:图像展示

  1. 合并生成的图像
    • 读取生成的图像,并将它们合并成一个大的图像以便于展示。

执行过程

想通义千问输入问题

通义千问回答

逐行解释代码

输入的问题

你是一个优秀的python开发工程师,现在我们需要你帮我们逐行分析这个代码,用中文回答我的问题。{此处替换前面的代码}

返回的结果

实战演练--基于话剧的连环画制作

数据准备

提示词

你是一个文生图专家,我们现在要做一个实战项目,就是要编排一个文生图话剧
话剧由8张场景图片生成,你需要输出每张图片的生图提示词

具体的场景图片
1、女主正在上课
2、开始睡着了
3、进入梦乡,梦到自己站在路旁
4、王子骑马而来
5、两人相谈甚欢
6、一起坐在马背上
7、下课了,梦醒了
8、又回到了学习生活中

生图提示词要求
1、风格为古风
2、根据场景确定是使用全身还是上半身
3、人物描述
4、场景描述
5、做啥事情

例子:
古风,水墨画,一个黑色长发少女,坐在教室里,盯着黑板,深思,上半身,红色长裙

询问通义

自己在通义的返回的基础上,多多调整

序号

场景名称

正向提示词

负向提示词

1

正在上课

古风,水墨画,一个身穿蓝色长袍的少女,端坐于古朴的学堂内,正聚精会神地听先生讲解经书。

丑陋,变形,嘈杂,模糊,低对比度

2

开始睡着了

古风,淡彩,同一个少女,头轻轻倚靠在手臂上,在学堂内昏昏欲睡,周围是散落的书卷和静谧的氛围。

丑陋,变形,嘈杂,模糊,低对比度

3

进入梦乡

古风,梦幻色彩,少女身着淡紫色长裙,站在蜿蜒的小径旁,眺望着前方,似乎在等待着什么。

丑陋,变形,嘈杂,模糊,低对比度

4

王子骑马而来

古风,浓墨重彩,一位英俊的青年骑着一匹骏马缓缓而来,少年衣着华丽,眼神坚定。

丑陋,变形,嘈杂,模糊,低对比度

5

两人相谈甚欢

古风,暖色调,少女与青年并肩而立,面带微笑,似乎在愉快地交谈。

丑陋,变形,嘈杂,模糊,低对比度

6

一起坐在马背上

古风,浪漫色调,少女和青年共同坐在马背上,少女双手环抱着青年的腰,青年则专注地驾驭着马儿前行。

丑陋,变形,嘈杂,模糊,低对比度

7

下课了,梦醒了

古风,水墨,少女从梦中醒来,揉着眼睛,表情略显迷茫,周围是学堂的陈设和同学们收拾东西的声音。

丑陋,变形,嘈杂,模糊,低对比度

8

又回到了学习生活

古风,淡雅色彩,少女再次回到学堂,专心致志地写着毛笔字,背景是充满书香气息的书房,旁边摆放着各种古籍。

丑陋,变形,嘈杂,模糊,低对比度

执行代码

大概用时20分钟;

生成图像

  • 10
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值