OpenCV:seamlessClone泊松融合(C++/Python)
flags 选择融合的方式,目前有NORMAL_CLONE、MIXED_CLONE和MONOCHROME_TRANSFER三种方法。
output 输出图像
示例代码
以下的代码都可以直接运行,可以下载下边给出的示例影像进行实验。
背景影像
目标影像
Python
# 注意修改路径!
import cv2
import numpy as np
# Read images : src image will be cloned into dst
im = cv2.imread("images/wood-texture.jpg")
obj= cv2.imread("images/iloveyouticket.jpg")
# Create an all white mask
mask = 255 * np.ones(obj.shape, obj.dtype)
# The location of the center of the src in the dst
width, height, channels = im.shape
center = (height/2, width/2)
# Seamlessly clone src into dst and put the results in output
normal_clone = cv2.seamlessClone(obj, im, mask, center, cv2.NORMAL_CLONE)
mixed_clone = cv2.seamlessClone(obj, im, mask, center, cv2.MIXED_CLONE)
# Write results
cv2.imwrite("images/opencv-normal-clone-example.jpg", normal_clone)
cv2.imwrite("images/opencv-mixed-clone-example.jpg", mixed_clone)
- C++
//注意修改路径!
#include <opencv2/core.hpp>
#include <opencv2/imgproc.hpp>
#include <opencv2/imgcodecs.hpp>
#include <opencv2/photo.hpp>
#include <iostream>
int main()
{
using namespace cv;
Mat src = imread("images/iloveyouticket.jpg");
Mat dst = imread("images/wood-texture.jpg");
// Create an all white mask
Mat src_mask = 255 * Mat::ones(src.rows, src.cols, src.depth());
// The location of the center of the src in the dst
Point center(dst.cols/2,dst.rows/2);
// Seamlessly clone src into dst and put the results in output
Mat normal_clone;
Mat mixed_clone;
seamlessClone(src, dst, src_mask, center, normal_clone, NORMAL_CLONE);
seamlessClone(src, dst, src_mask, center, mixed_clone, MIXED_CLONE);
// Save results
imwrite("images/opencv-normal-clone-example.jpg", normal_clone);
imwrite("images/opencv-mixed-clone-example.jpg", mixed_clone);
}
结果
版权声明
本文章为学习之余翻译,仅供学习使用。
文中图片都来自被翻译网站,仅供学习使用。
飞机图片:
https://commons.wikimedia.org/wiki/File:Japan.airlines.b777-300.ja733j.arp.jpg
天空图片:
https://commons.wikimedia.org/wiki/File:Big_Tree_with_Red_Sky_in_the_Winter_Night.jpg
Python+OpenCV教程10:平滑图像
主站:http://ex2tron.wang
原文:Python+OpenCV教程10:平滑图像
学习模糊/平滑图像,消除噪点。图片等可到源码处下载。
目标
- 模糊/平滑图片来消除图片噪声
- OpenCV函数:cv2.blur(), cv2.GaussianBlur(), cv2.medianBlur(), cv2.bilateralFilter()
教程
滤波与模糊
推荐大家先阅读:番外篇:卷积基础(图片边框),有助于理解卷积和滤波的概念。
关于滤波和模糊,很多人分不清,我来给大家理理(虽说如此,我后面也会混着用,,ԾㅂԾ,,):
- 它们都属于卷积,不同滤波方法之间只是卷积核不同(对线性滤波而言)
- 低通滤波器是模糊,高通滤波器是锐化
低通滤波器就是允许低频信号通过,在图像中边缘和噪点都相当于高频部分,所以低通滤波器用于去除噪点、平滑和模糊图像。高通滤波器则反之,用来增强图像边缘,进行锐化处理。
常见噪声有椒盐噪声和高斯噪声,椒盐噪声可以理解为斑点,随机出现在图像中的黑点或白点;高斯噪声可以理解为拍摄图片时由于光照等原因造成的噪声;这样解释并不准确,只要能简单分辨即可。
均值滤波
均值滤波是一种最简单的滤波处理,它取的是卷积核区域内元素的均值,用cv2.blur()
实现,如3×3的卷积核:
img = cv2.imread('lena.jpg')
blur = cv2.blur(img, (3, 3)) # 均值模糊
所有的滤波函数都有一个可选参数borderType,还记得吗?这个参数就是我们在番外篇:卷积基础(图片边框)中所说的边框填充方式。
方框滤波
方框滤波跟均值滤波很像,如下面的公式。用cv2.boxFilter()
函数实现,事实上,当可选参数normalize
为True的时候,方框滤波就是均值滤波,如3×3的核,a就等于1/9;normalize
为False的时候,a=1,相当于求区域内的像素和。
# 前面的均值滤波也可以用方框滤波实现:normalize=True
blur = cv2.boxFilter(img, -1, (3, 3), normalize=True)
高斯滤波
前面两种滤波方式,卷积核内的每个值都一样,相当于图像区域中每个像素的权重也就一样。高斯滤波的卷积核权重并不相同,中间像素点权重最高,越远离中心的像素权重越小。(其原理是一个2维高斯函数,可以参考:Gaussian Filter)
高斯滤波相比均值滤波效率要慢,但可以有效消除高斯噪声,能保留更多的图像细节,所以经常被称为最有用的滤波器。
img = cv2.imread('gaussian_noise.bmp')
# 均值滤波vs高斯滤波
blur = cv2.blur(img, (5, 5)) # 均值滤波
gaussian = cv2.GaussianBlur(img, (5, 5), 1) # 高斯滤波
均值滤波与高斯滤波的对比结果如下(均值滤波丢失的细节更多):
GaussianBlur()中参数3是σx,值越大,模糊效果越明显,0代表默认值0.8:getGaussianKernel()
中值滤波
中值又叫中位数,是所有值排序后取中间的值。中值滤波就是用区域内的中值来代替本像素值,所以那种孤立的斑点,如0或255很容易消除掉,适用于去除椒盐噪声和斑点噪声。中值是一种非线性操作,效率相比前面几种线性滤波要慢。
比如下面这张斑点噪声图,用中值滤波显然更好:
img = cv2.imread('salt_noise.bmp', 0)
# 均值滤波vs中值滤波
blur = cv2.blur(img, (5, 5)) # 均值滤波
median = cv2.medianBlur(img, 5) # 中值滤波
双边滤波
模糊操作基本都会损失掉图像细节信息,尤其前面介绍的线性滤波器,图像的边缘信息很难保留下来。然而,边缘edge信息是图像中很重要的一个特征,所以这才有了双边滤波。用cv2.bilateralFilter()
函数实现:
img = cv2.imread('lena.jpg')
# 双边滤波vs高斯滤波
gau = cv2.GaussianBlur(img, (5, 5), 0) # 高斯滤波
blur = cv2.bilateralFilter(img, 9, 75, 75) # 双边滤波
可以看到,双边滤波明显保留了更多边缘信息。
小结
- 在不知道用什么滤波器好的时候,优先高斯滤波
cv2.GaussianBlur()
,然后均值滤波cv2.blur()
- 斑点和椒盐噪声优先使用中值滤波
cv2.medianBlur()
- 要去除噪点的同时尽可能保留更多的边缘信息,使用双边滤波
cv2.bilateralFilter()
- 线性滤波方式:均值滤波、方框滤波、高斯滤波(速度相对快)
- 非线性滤波方式:中值滤波、双边滤波(速度相对慢)
引用
作者:ex2tron
链接:https://www.jianshu.com/p/875d6346408d
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。