前言
大家早好、午好、晚好吖 ❤ ~欢迎光临本文章
更多python资料、源码、教程皆可点击文章下方名片获取此处跳转
我们平常看动漫的时候,它们里面有许许多多唯美的场景,令人心生向往
咱程序员也没有手绘插画能力,但咱可以借助强大的深度学习模型将视频转动漫。
所以今天的目标是让任何具有python语言基本能力的程序员,实现短视频转动漫效果。
效果展示
一、思路流程
-
读取视频帧
-
将每一帧图像转为动漫帧
-
将转换后的动漫帧转为视频
难点在于如何将图像转为动漫效果。
这里我们使用基于深度学习的动漫效果转换模型,考虑到许多读者对这块不了解,因此我这边准备好了源码和模型,直接调用即可。
不想看文章细节的可以直接拖到文章末尾,获取源码。
二、图像转动漫
为了让大家不关心深度学习模型,已经为大家准备好了转换后的onnx类型模型。
接下来按顺序介绍运行onnx模型流程。
安装onnxruntime库
pip install onnxruntime
如果想要用GPU加速,可以安装GPU版本的onnxruntime:
pip install onnxruntime-gpu
需要注意的是:
onnxruntime-gpu的版本跟CUDA有关联,具体对应关系如下:
当然,如果用CPU运行,那就不需要考虑那么多了。考虑到通用性,本文全部以CPU版本onnxruntime。
运行模型
先导入onnxruntime库,创建InferenceSession对象,调用run函数。
import onnxruntime as rt
sess = rt.InferenceSession(MODEL_PATH)
inp_name = sess.get_inputs()[0].name
out = sess.run(None, {
inp_name: inp_im