使用 JojoGAN 创建风格化的面部图

b2400a1a37c52f3c8562fba2a433dd98.png

介绍

风格迁移是神经网络的一个发展领域,它是一个非常有用的功能,可以集成到社交媒体和人工智能应用程序中。几个神经网络可以根据训练数据将图像样式映射和传输到输入图像。在本文中,我们将研究 JojoGAN,以及仅使用一种参考样式来训练和生成具有该样式的任何图像的过程。

JoJoGAN:One Shot Face Stylization

One Shot Face Stylization(一次性面部风格化)可用于 AI 应用程序、社交媒体过滤器、有趣的应用程序和业务用例。随着 AI 生成的图像和视频滤镜的日益普及,以及它们在社交媒体和短视频、图像中的使用,一次性面部风格化是一个有用的功能,应用程序和社交媒体公司可以将其集成到最终产品中。

因此,让我们来看看用于一次性生成人脸样式的流行 GAN 架构——JojoGAN。

JojoGAN 架构

JojoGAN 是一种风格迁移程序,可让将人脸图像的风格迁移为另一种风格。它通过GAN将参考风格图像反转为近似的配对训练数据,根据风格化代码生成真实的人脸图像,并与参考风格图像相匹配。然后将该数据集用于微调 StyleGAN,并且可以使用新的输入图像,JojoGAN 将根据 GAN 反转(inversion)将其转换为该特定样式。

803673ebc120e10f3886566a78abf8ab.png

JojoGAN 架构和工作流程

JojoGAN 只需一种参考风格即可在很短的时间内(不到 1 分钟)进行训练,并生成高质量的风格化图像。

JojoGan 的一些例子

JojoGAN 生成的风格化图像的一些示例:

67c815b191464eebd4d7a237cf53b824.png

风格化的图像可以在各种不同的输入风格上生成并且可以修改。

JojoGan 代码深潜

让我们看看 JojoGAN 生成风格化人像的实现。有几个预训练模型可用,它们可以在我们的风格图像上进行训练,或者可以修改模型以在几分钟内更改风格。

JojoGAN 的设置和导入

克隆 JojoGAN 存储库并导入必要的库。在 Google Colab 存储中创建一些文件夹,用于存储反转代码、样式图像和模型。

!git clone https://github.com/mchong6/JoJoGAN.git
%cd JoJoGAN
!pip install tqdm gdown scikit-learn==0.22 scipy lpips dlib opencv-python wandb
!wget https://github.com/ninja-build/ninja/releases/download/v1.8.2/ninja-linux.zip
!sudo unzip ninja-linux.zip -d /usr/local/bin/
import torch
torch.backends.cudnn.benchmark = True
from torchvision import transforms, utils
from util import *
from PIL import Image
import math
import random
import os

import numpy
from torch import nn, autograd, optim
from torch.nn import functional
from tqdm import tqdm
import wandb
from model import *
from e4e_projection import projection


from google.colab import files
from copy import deepcopy
from pydrive.auth import GoogleAuth
from pydrive.drive import GoogleDrive
from google.colab import auth
from oauth2client.client import GoogleCredentials

模型文件

使用 Pydrive 下载模型文件。一组驱动器 ID 可用于预训练模型。这些预训练模型可用于随时随地生成风格化图像,并具有不同的准确度。之后,可以训练用户创建的模型。

#Download models
#optionally enable downloads with pydrive in order to authenticate and avoid drive download limits.
download_with_pydrive = True  
device = 'cuda' #['cuda', 'cpu']
!wget http://dlib.net/files/shape_predictor_68_face_landmarks.dat.bz2
!bzip2 -dk shape_predictor_68_face_landmarks.dat.bz2
!mv shape_predictor_68_face_landmarks.dat models/dlibshape_predictor_68_face_landmarks.dat
%matplotlib inl
  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要在C#中实时对人脸像进行风格化,你可以按照以下步骤进行: 1. 导入所需的库:确保你已经导入OpenCV和Dlib库。OpenCV用于像处理,Dlib用于人脸检测和关键点定位。 2. 初始摄像头:使用OpenCV的`VideoCapture`类初始摄像头。例如,你可以使用以下代码: ```csharp VideoCapture capture = new VideoCapture(0); ``` 3. 加载风格模型:你需要使用一个预训练的风格模型来对人脸像进行风格化。你可以从互联网上下载已经训练好的模型,然后使用OpenCV的`dnn`模块加载模型。例如,你可以使用以下代码: ```csharp Net styleModel = CvDnn.ReadNetFromTorch("style_model.t7"); ``` 4. 循环读取帧:使用一个无限循环来持续读取摄像头的帧。例如,你可以使用以下代码: ```csharp while (true) { // 读取当前帧 Mat frame = new Mat(); capture.Read(frame); // 检测人脸并定位关键点 Rect[] faces = DlibFaceDetector.DetectFaces(frame); foreach (var face in faces) { var landmarks = DlibFaceDetector.DetectLandmarks(frame, face); // 提取人脸区域 Mat faceImage = frame.SubMat(face); // 将人脸像转换为Blob对象 Mat blob = CvDnn.BlobFromImage(faceImage, 1.0, new Size(224, 224), new Scalar(103.939, 116.779, 123.68), true, false); // 将Blob对象传递给风格模型进行前向传播 styleModel.SetInput(blob); Mat outputBlob = styleModel.Forward(); // 将输出Blob对象转换为像 Mat stylizedFaceImage = outputBlob.Reshape(1, faceImage.Rows).RowRange(0, faceImage.Rows); // 将风格化的人脸像放回原中 stylizedFaceImage.CopyTo(frame.SubMat(face)); } // 显示帧 Cv2.ImShow("Video", frame); // 按下ESC键退出循环 if (Cv2.WaitKey(1) == 27) break; } ``` 在上述代码中,我们检测到人脸并定位关键点后,提取人脸像并将其转换为Blob对象。然后,我们将Blob对象传递给风格模型进行前向传播,得到风格化的人脸像。最后,我们将风格化的人脸像放回原中,并显示整个帧。 请确保你已经按照上述步骤导入了所需的库,并且已经下载了预训练的风格模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值