cnn风格迁移_用Python深度学习来快速实现图片的风格迁移

本文介绍了使用Python和深度学习进行图片风格迁移的技术,包括基本原理、基于OpenCV的快速实现方法,以及近年来的相关进展。通过理解卷积神经网络(CNN)的特征提取能力,利用损失函数优化目标图片,实现内容与风格的融合。文章提供了一个基于OpenCV的快速实现风格迁移的函数,并展示了其实现效果。
摘要由CSDN通过智能技术生成

先来看下效果:

61fcb9d4c98ff724b393ad2ef4889416.png

上图是小编在甘南合作的米拉日巴佛阁外面拍下的一张照片,采用风格迁移技术后的效果为:

d37c95eaec2cbe5aac553743350eeec9.gif

一些其它效果图:

2be168a239f6eebe53ca103bc6ca1aeb.png

db72887e8dba5c44d4d7a67bee8ead43.png

03019e67066d8975a138239e45295311.png

下面进入正题。

近年来,由深度学习所引领的人工智能(AI)技术浪潮,开始越来越广泛地应用到生活各个领域。这其中,人工智能与艺术的交叉碰撞,在相关技术领域和艺术领域引起了高度关注。就在上个月,由电脑生成的艺术品在佳士得(Christie’s)的拍卖价竟高达43.25万美元,证明人工智能不仅可以具有创造性,还可以创作出世界级的艺术品。

早些时候,有些人坚信艺术的创造力是人工智能无法替代的,艺术将是人类最后一片自留地!这不,没过多久,这片唯一的自留地也逐渐被人工智能所取代。

在这各种神奇的背后,最核心的就是基于深度学习的风格迁移(style transfer)技术。我将在这篇博客带领大家学习如何使用Python来快速实现图片的风格迁移。阅读完本博客后,相信你也能够创造出漂亮的艺术品。

1. 什么是图片的风格迁移?

3ff2ae1733c93afd6280f771cf6b867d.png

所谓图片风格迁移,是指利用程序算法学习著名画作的风格,然后再把这种风格应用到另外一张图片上的技术。

举个例子,见上图。左边是我们的原始图片(也称内容图像):小编在苏州甪直古镇的一座小桥上拍下的一张照片。

中间是我们的风格图片:挪威表现派画家爱德华·蒙克的代表作《呐喊》(The Scream)。

右边是将爱德华·蒙克的《呐喊》的风格应用于原始图片后生成的风格化结果图。仔细观察,图片是如何保留了流水、房屋、房屋在水中的倒影,甚至远处树木的内容,但却运用了《呐喊》的风格,就好像爱德华·蒙克在我们的景色中运用了他高超的绘画技巧一样!

问题是,我们应该定义一个什么样的神经网络来执行图片的风格迁移?

这可能吗?

答案是:可以的。我将在下一节简单讨论如何基于神经网络来实现图片风格的迁移。

2. 基本原理

Gatys等人在2015年发表了第一篇基于深度学习的风格迁移算法文章,原文链接为https://arxiv.org/abs/1508.06576,随后文章收录于2016年的CVPR顶会。

有趣的是,他们提出了一种完全不需要新网络架构的风格迁移算法,其使用的网络构架是在前人的VGG19基础上稍加改造而成的,而且网络参数也使用预训练(通常在ImageNet上)网络的参数。我们来看下它的原理:

41a936fe9b68bfff1e047947f50d2476.png

我们知道,卷积神经网络(CNN)具有很强的图像特征(feature/representation)提取能力,如上图所示。

对于内容图片,深层网络(d和e)提取的是高维特征,同时也丢弃了细节信息;浅层网络(a, b和c)提取的是低维特征,图片的细节大多都保留下来了。

对于风格图片,通过包含多层的特征相关性(Gram矩阵),可获得多尺度图像风格的重构,捕获其纹理信息。这样构建的网络可以忽略图像的具体细节,保留风格。

为了将内容图片和风格图片融合在一起(见下图),我们应该使风格化结果图(初始为一张白噪声图片)的特征同时与内容图片和风格图片的特征之间的距离最小化,最终获取我们所需的风格化结果图。

65f86bc84ad88d37bbb7b06484e74c36.png

因此生成目标图片的损失函数可定义为:

49613ffe288aa776bdf03501cd054bcf.png

其中α和β分别是内容图片和风格图片的特征所占的权重,通过最小化这个损失函数就可以获得我们想要的结果。来看个动态示意图:

558c755d36177516c4917ebe9191a6c0.gif

值得注意的是,这里优化的参数不再是网络的权重ω和偏差b,而是初始输入的一张白噪声图片。

虽然上述方法可产生非常漂亮的风格迁移效果,但是速度很慢。

2016年,Johnson等人基于Gatys等人的工作,提出了一种速度可提高三个数量级的风格迁移算法。虽然算法的速度很快,但最大的缺点是不能像Gatys等人那样随意选择你的风格图片。针对每张风格图片,你都需要训练一个网络来重现这个风格。一旦网络模型训练好之后,你就可将它应用于你想要的任何内容图片了。

这篇博客我们将使用Johnson等人的方法,其算法实现和预训练模型可参考https://github.com/jcjohnson/fast-neural-style。

3. 基于OpenCV的快速实现

下面利用OpenCV来快速实现图片的风格迁移,我将其封装成一个叫 style_transfer()的函数,其使用说明可参考函数内部的注释。目前只有11个预训练模型可用,所有模型和相应风格图片都已上传至百度网盘。

## 载入所需库

import cv2

import time

def style_transfer(pathIn='',

                  pathOut='',

                  model='',

                  width=None,

                  jpg_quality=80):

   '''

   pathIn: 原始图片的路径

   pathOut: 风格化图片的保存路径

   model: 预训练模型的路径

   width: 设置风格化图片的宽度,默认为None, 即原始图片尺寸

   jpg_quality: 0-100,设置输出图片的质量,默认80,越大图片质量越好

   '''

   ## 读入原始图片,调整图片至所需尺寸,然后获取图片的宽度和高度

   img = cv2.imread(pathIn)

   (h, w) = img.shape[:2]

   if width is not None:

       img = cv2.resize(img, (width, round(width*h/w)), interpolation=cv2.INTER_CUBIC)

       (h, w) = img.shape[:2]

   ## 从本地加载预训练模型

   print('加载预训练模型......')

   net = cv2.dnn.readNetFromTorch(model)

   ## 将图片构建成一个blob:设置图片尺寸,将各通道像素值减去平均值(比如ImageNet所有训练样本各通道统计平均值)

   ## 然后执行一次前馈网络计算,并输出计算所需的时间

   blob = cv2.dnn.blobFromImage(img, 1.0, (w, h), (103.939, 116.779, 123.680), swapRB=False, crop=False)

   net.setInput(blob)

   start = time.time()

   output = net.forward()

   end = time.time()

   print("风格迁移花费:{:.2f}秒".format(end - start))

   ## reshape输出结果, 将减去的平均值加回来,并交换各颜色通道

   output = output.reshape((3, output.shape[2], output.shape[3]))

   output[0] += 103.939

   output[1] += 116.779

   output[2] += 123.680

   output = output.transpose(1, 2, 0)

   ## 输出风格化后的图片

   cv2.imwrite(pathOut, output, [int(cv2.IMWRITE_JPEG_QUALITY), jpg_quality])

来测试一下:

>>> models = glob.glob('./*/*/*.t7')

>>> models      ## 列出所有可用的预训练模型

['.\\models\\eccv16\\composition_vii.t7',

'.\\models\\eccv16\\la_muse.t7',

'.\\models\\eccv16\\starry_night.t7',

'.\\models\\eccv16\\the_wave.t7',

'.\\models\\instance_norm\\candy.t7',

'.\\models\\instance_norm\\feathers.t7',

'.\\models\\instance_norm\\la_muse.t7',

'.\\models\\instance_norm\\mosaic.t7',

'.\\models\\instance_norm\\starry_night.t7',

'.\\models\\instance_norm\\the_scream.t7',

'.\\models\\instance_norm\\udnie.t7']

>>> pathIn = './img/img01.jpg'

>>> pathOut = './result/result_img01.jpg'

>>> model = './models/instance_norm/the_scream.t7'

>>> style_transfer(pathIn, pathOut, model, width=500)

加载预训练模型......

风格迁移花费:1.18秒

>>> pathIn = './img/img02.jpg'

>>> pathOut = './result/result_img02.jpg'

>>> model = './models/instance_norm/starry_night.t7'

>>> style_transfer(pathIn, pathOut, model, width=500)

加载预训练模型......

风格迁移花费:3.17秒

>>> pathIn = './img/img03.jpg'

>>> pathOut = './result/result_img03.jpg'

>>> model = './models/instance_norm/the_scream.t7'

>>> style_transfer(pathIn, pathOut, model, width=500)

加载预训练模型......

风格迁移花费:0.90秒

>>> pathIn = './img/img04.jpg'

>>> pathOut = './result/result_img04.jpg'

>>> model = './models/eccv16/the_wave.t7'

>>> style_transfer(pathIn, pathOut, model, width=500)

加载预训练模型......

风格迁移花费:2.68秒

>>> pathIn = './img/img05.jpg'

>>> model = './models/instance_norm/mosaic.t7'

>>> style_transfer(pathIn, pathOut, model, width=500)

加载预训练模型......

风格迁移花费:1.23秒

从运行结果可知,在CPU上,一张图片的风格迁移所花的时间大概也就几秒。如果使用GPU,完全可以实时对视频/摄像头进行风格迁移处理。

4. 目前的相关进展

自Gatys等人第一次(2015年)实现基于深度学习的风格迁移以来,风格迁移技术仍一直在发展,如今在速度和质量上都有了很大提高。目前的一些进展可以通过下面的链接来了解:

  • https://github.com/jcjohnson/fast-neural-style

  • https://github.com/DmitryUlyanov/texture_nets

  • https://github.com/luanfujun/deep-painterly-harmonization

  • https://junyanz.github.io/CycleGAN/

他们的一些作品:

1. 风格迁移

c9bb62af5453b8c711c56a4546b732fc.png

cd9dba86c627895cc378b50e7b69d8de.png

2. 外来图片的融合

7d43b0891453642cd4c0eee2763b0ac3.png

0c54221ff7a40b0af6741640a904d15e.png

8cfb0ca56afa83efa922b77c1076ab94.png

3. 图片季节的变换

f6c71f6f91025abc4d18703bf7afb19d.png

4. 图片背景的虚化

8401c58830541dde697b330cbdeb3167.png

5. 角色互换

136f95640ef0390bba0f88c2909e2ef9.png

为了方便在电脑上阅读,文章也同步更新到相应专栏:

  • 知乎:

    https://www.zhihu.com/people/zoro-3-92/posts

  • 简书:

    https://www.jianshu.com/u/981ba7d6b4a6

往期热门:

菜鸟学Python数据分析|文章汇总上篇

值得收藏|菜鸟学Python【入门文章大全】

菜鸟写Python程序,如何从新手变老手

学习群:

小密圈人气很高的两个实战项目

小密圈的趣味实战-微信主题

3个月还没入门Python,看这100名小密圈的同学3周学Python的杰作

基于深度学习的图像风格迁移是一种能够将一幅图像的风格转移到另外一幅图像上的技术。它使用了深度神经网络来实现图像的风格化。Python作为一种流行的编程语言,也提供了许多库和框架来实现图像风格迁移实现图像风格迁移的一种常用方法是使用卷积神经网络(CNN)。CNN可以从图像中提取各种特征,包括颜色、纹理和形状等。通过训练一个CNN模型,我们可以用于捕捉图像风格的特征,比如一幅画作的风格。 在Python中,有许多流行的深度学习框架可以使用,比如TensorFlow、PyTorch和Keras等。这些框架提供了许多预训练的模型,包括一些用于图像风格迁移的模型,如VGG19、ResNet等。这些模型可以很方便地用来提取图像的特征,并用于图像的风格化。 图像风格迁移的核心思想是将输入图像的内容和风格分离开来,然后将风格迁移到目标图像上。为了实现这个过程,我们需要定义一个损失函数来衡量输入图像和目标图像之间的差异,并使用梯度下降算法来最小化这个损失,从而产生一个风格化的图像。 在Python中,我们可以使用CNN模型来提取输入图像和目标图像的特征,并通过梯度下降算法调整输入图像,使其与目标图像的特征尽可能地接近。通过迭代多次训练,我们可以得到一个具有目标图像风格风格化图像。 总之,Python提供了许多工具和库来实现基于深度学习的图像风格迁移。通过使用CNN模型和梯度下降算法,我们可以将一幅图像的风格迁移到另外一幅图像上,从而实现图像的风格化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值