MODNet 图片抠像

引用来源
@article{MODNet,
author = {Zhanghan Ke and Kaican Li and Yurou Zhou and Qiuhua Wu and Xiangyu Mao and Qiong Yan and Rynson W.H. Lau},
title = {Is a Green Screen Really Necessary for Real-Time Portrait Matting?},
journal={ArXiv},
volume={abs/2011.11961},
year = {2020},
}

利用神经网络实现图片抠像,虽然比不上PS高手精细的抠像成果,但实现自动抠像还是蛮不错滴。本文介绍MODNet抠像。

克隆MODNet到本地目录 MODNet

git clone https://github.com/ZHKKKe/MODNet

requirements.txt包括如下:
numpy
gdown
opencv-python
pillow
torch == 1.1.0
torchvision == 0.3.0

安装运行所需的环境

pip install -r requirements.txt

预训练模型在这里 :
modnet_photographic_portrait_matting.ckpt

模型百度网盘:在这里

密码:gchf

把模型下载到目录:MODNet/pretrained,下面运行需要加载此模型。
现在,工作目录是MODNet,在其目录下建立输入图片和输出图片的目录:
input-img, output-img
把需要抠图的图片放到input-img
MODNet目录下,运行

python -m demo.image_matting.colab.inference-1   \
                   --input-path input-img  \
                   --output-path output-img  \
                   --ckpt-path pretrained/modnet_photographic_portrait_matting.ckpt

现在可以从output-img中找到已经抠好的图片xxx_fg.png,遮罩图片xxx_matte.png
看看MODNet模型的抠图效果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

python程序如下。原作者的程序中只给出遮罩matte,没有抠图结果。鄙人不才,添加了抠出的前景图片,供参考。

import os
import sys
import argparse
import numpy as np
from PIL import Image
import torch
import torch.nn as nn
import torch.nn.functional as F
import torchvision.transforms as transforms
from src.models.modnet import MODNet

if __name__ == '__main__':
    # define cmd arguments
    parser = argparse.ArgumentParser()
    parser.add_argument('--input-path', type=str, help='path of input images')
    parser.add_argument('--output-path', type=str, help='path of output images')
    parser.add_argument('--ckpt-path', type=str, help='path of pre-trained MODNet')
    args = parser.parse_args()

    # check input arguments
    if not os.path.exists(args.input_path):
        print('Cannot find input path: {0}'.format(args.input_path))
        exit()
    if not os.path.exists(args.output_path):
        print('Cannot find output path: {0}'.format(args.output_path))
        exit()
    if not os.path.exists(args.ckpt_path):
        print('Cannot find ckpt path: {0}'.format(args.ckpt_path))
        exit()
    # define hyper-parameters
    ref_size = 512
    # define image to tensor transform
    im_transform = transforms.Compose(
        [
            transforms.ToTensor(),
            transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
        ]
    )

    # create MODNet and load the pre-trained ckpt
    modnet = MODNet(backbone_pretrained=False)
    modnet = nn.DataParallel(modnet).cuda()
    modnet.load_state_dict(torch.load(args.ckpt_path))
    modnet.eval()
# 注:程序中的数字仅表示某张输入图片尺寸,如1080x1440,此处只为记住其转换过程。
    # inference images
    im_names = os.listdir(args.input_path)
    for im_name in im_names:
        print('Process image: {0}'.format(im_name))
        # read image
        im = Image.open(os.path.join(args.input_path, im_name))
        # unify image channels to 3
        im = np.asarray(im)
        if len(im.shape) == 2:
            im = im[:, :, None]
        if im.shape[2] == 1:
            im = np.repeat(im, 3, axis=2)
        elif im.shape[2] == 4:
            im = im[:, :, 0:3]
        im_org = im                                # 保存numpy原始数组 (1080,1440,3)
        # convert image to PyTorch tensor
        im = Image.fromarray(im)
        im = im_transform(im)
        # add mini-batch dim
        im = im[None, :, :, :]
        # resize image for input
        im_b, im_c, im_h, im_w = im.shape
        if max(im_h, im_w) < ref_size or min(im_h, im_w) > ref_size:
            if im_w >= im_h:
                im_rh = ref_size
                im_rw = int(im_w / im_h * ref_size)
            elif im_w < im_h:
                im_rw = ref_size
                im_rh = int(im_h / im_w * ref_size)
        else:
            im_rh = im_h
            im_rw = im_w
        im_rw = im_rw - im_rw % 32
        im_rh = im_rh - im_rh % 32
        im = F.interpolate(im, size=(im_rh, im_rw), mode='area')

        # inference
        _, _, matte = modnet(im.cuda(), True)    # 从模型获得的 matte ([1,1,512, 672])

        # resize and save matte,foreground picture
        matte = F.interpolate(matte, size=(im_h, im_w), mode='area')  #内插,扩展到([1,1,1080,1440])  范围[0,1]
        matte = matte[0][0].data.cpu().numpy()    # torch 张量转换成numpy (1080, 1440)
        matte_name = im_name.split('.')[0] + '_matte.png'
        Image.fromarray(((matte * 255).astype('uint8')), mode='L').save(os.path.join(args.output_path, matte_name))
        matte_org = np.repeat(np.asarray(matte)[:, :, None], 3, axis=2)   # 扩展到 (1080, 1440, 3) 以便和im_org计算
        
        foreground = im_org * matte_org + np.full(im_org.shape, 255) * (1 - matte_org)         # 计算前景,获得抠像
        fg_name = im_name.split('.')[0] + '_fg.png'
        Image.fromarray(((foreground).astype('uint8')), mode='RGB').save(os.path.join(args.output_path, fg_name))
  • 10
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 46
    评论
### 回答1: Modnet是一个基于深度学习的图像修复模型,能够将含有缺陷或破损的图像修复为高质量的图像。它的代码和模型结构可以在GitHub上的Modnet仓库中找到。而ONNX是一种跨平台、高性能的开放式模型交换格式,可以将深度学习模型转换为ONNX格式以实现在多个框架之间的无缝迁移和部署。 在Modnet的GitHub仓库中,可以找到Modnet的代码、训练数据、模型结构等相关内容。该仓库提供了构建和训练Modnet模型所需的所有资源,开发者可以根据自己的需要自行下载和使用。 Modnet模型的训练和测试数据也可以在GitHub仓库中找到,这些数据有助于开发者理解模型的训练环境和进行训练性能的评估。此外,仓库中还提供了详细的使用文档和示例代码,以帮助开发者快速上手和运行Modnet模型。 对于想要将Modnet模型与其他框架集成或部署到不同硬件平台上的开发者,ONNX可以起到很大的帮助。通过将Modnet模型转换为ONNX格式,可以实现与其他深度学习框架如TensorFlow、PyTorch等的无缝集成,并能够在不同硬件平台上进行高效的部署。 总之,Modnet onnx github提供了Modnet模型的代码、模型结构、训练数据和使用文档等资源,以及将Modnet模型转换为ONNX格式的说明,方便开发者使用和部署这一优秀的图像修复模型。 ### 回答2: Modnet是一个基于深度学习的图像修复模型,可以用于去除图像中的噪点、镜头污渍和低质量传输等问题。ONNX是一种开放的神经网络中间表示格式,可以在不同的深度学习框架之间进行模型转换和迁移。GitHub是一个基于Git的代码托管平台,提供了开源软件开发所需的版本控制、协作和问题跟踪功能。 Modnet ONNX GitHub指的是Modnet的ONNX版本在GitHub上的仓库。在该仓库内,用户可以访问Modnet的相关代码、模型和文档,以及与其它开发者进行交流和讨论。 通过访问Modnet ONNX GitHub仓库,用户可以下载Modnet的ONNX模型,这样就可以在不同的深度学习框架中使用该模型进行图像修复任务。同时,用户也可以查看已有的文档和示例代码,了解如何使用和优化Modnet模型。 在GitHub上,用户还可以向Modnet ONNX的仓库提交问题、提出建议和参与讨论。这样的开放性平台可以促进不同开发者之间的合作,导致更好的模型改进和推广。 总之,Modnet ONNX GitHub提供了将Modnet模型与ONNX格式相结合的资源和交流平台,使得用户可以更加方便地使用和改进这个图像修复模型。 ### 回答3: ModNet是一个用于图像背景自动分割的先进模型。它是Open Neural Network Exchange (ONNX) 模型库中的一个开源项目。ONNX是一个开放的开源深度学习模型交换框架,它允许用户在不同的深度学习框架中直接交换和使用训练好的模型。 ModNet模型库通过提供训练好的模型参数和源代码,使用户能够使用图像分割功能,即将图像的前景目标与背景进行分离。由于ModNet是基于ONNX模型库开发的,因此它具有高度的灵活性和可移植性。用户可以将ModNet模型集成到不同的深度学习框架中,如PyTorch、TensorFlow和Caffe等。 在ModNet的GitHub页面上,用户可以找到关于模型的详细文档、安装说明和使用示例。用户可以按照指南了解如何基于ModNet模型进行图像背景分割,并将其应用到自己的项目中。在GitHub上,开发者还可以参与到ModNet的进一步开发和改进中,提供建议、报告问题和贡献代码。 总之,ModNet是一个开源的ONNX模型库,提供了先进的图像背景自动分割模型。用户可以在GitHub上获取到相关的文档和代码,并将其集成到自己的深度学习项目中。通过开源社区的不断贡献,ModNet将不断演进和改进,为用户提供更好的图像分割功能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 46
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值