仿射变换,是一种二维坐标到二维坐标之间的线性变换;它保持了二维图形的“平直性”(直线经过变换后依然是直线)和“平行性”(二维图形之间相对位置保持不变,平行线依然是平行线,且直线上点的位置关系不变)。仿射变换可以写为如下形式。
变换形式如下,a0, a1, a2, b0, b1,b2是对应2*3变换矩阵的几个值。
针对图像而言,变换矩阵和图像之间关系为:dst_img=M*src_img
仿射变换有如下几种变换形式:平移、旋转、放缩、剪切、翻转。
为了涵盖平移,将变换矩阵引入齐次坐标,在原有二维基础上增加一个维度,如下:
不同的基础变换,a,b,c,d,e,f约束不同,可以有如下几种,a,b,d,e主要控制x,y的旋转,缩放指标,c,f 则是控制是否平移的指标。比如当c,f不为0时候,表示原图左下角坐标(h1,w1)平移变成了(h1+y, w1+x)。当a,b,d,e 分别是1,0,0,1时候,表示原图尺寸不变,如果变成了 w2, 0, 0, h2,则表示原图的height和width分别re_scale了H,W倍。
借助opencv, 一张图像的仿射变换求解流程:
1,给出图像上三个点的坐标,以及仿射变换后对应的这三个点的坐标
2,利用M=cv2.getAffineTransform(src_point,dst_point)得到转换矩阵M
3,利用dst= cv2.warpAffine(img,M,(new_width,new_height))得到转换后的图像。其中img是原图,(new_width,new_height)是转换后的图像尺寸。
另外一种方法,根据如上图的自定义的仿射变换结果,直接给出M矩阵,求解仿射后图像的方法。
比如,想通过仿射变换实现将一张图resize成小点的尺寸,使用两种方法的对比代码如下:
# -*- coding: utf-8 -*-
import cv2
import numpy as np
img = cv2.imread('test.jpg')
# img=cv2.resize(img,(250,300))
height, width = img.shape[:2]
new_height=220
new_width=180
print("ori:%d,%d, new: %d, %d"%(height,width,new_height,new_width))
scale=min(new_height/height,new_width/width)
M1=np.array([[scale, 0, 0],
[0,scale, 0]])
iM1=cv2.invertAffineTransform(M1)#逆矩阵,可反向由dst*iM1求得src
dst1=cv2.warpAffine(img,M1,(new_width,new_height))
new_dst=np.zeros([height,width,3]).astype(np.uint8)
new_dst[:new_height,:new_width,:]=dst1
img1 = np.hstack([img,new_dst])
src_point=np.float32([[0,0],[0,height],[width,0]])
dst_point=np.float32([[0,0],[0,new_height],[new_width,0]])
M2=cv2.getAffineTransform(src_point,dst_point)
dst2=cv2.warpAffine(img,M2,(new_width,new_height))
new_dst1=np.zeros([height,width,3]).astype(np.uint8)
new_dst1[:new_height,:new_width,:]=dst2
img2 = np.hstack([img,new_dst1])
img3=np.hstack([img1,img2])
cv2.imshow("M2",img3)
cv2.waitKey(0)
'''
# 在原图像和目标图像上各选择三个点
mat_src = np.float32([[0, 0],[0, height-1],[width-1, 0]])
mat_dst = np.float32([[0, 0],[100, height-100],[width-100, 100]])
# 得到变换矩阵
mat_trans = cv2.getAffineTransform(mat_src, mat_dst)
# 进行仿射变换
dst = cv2.warpAffine(img, mat_trans, (width,height))
# 显示
imgs = np.hstack([img,dst])
cv2.namedWindow('imgs', cv2.WINDOW_NORMAL)
cv2.imshow("imgs",imgs)
cv2.waitKey(0)
'''
两种方法对比如下,左边是直接定义M,右边是通过两组图的三个对应点求M的方式,所有的左边是原图,右边是仿射处理后的图。
透射变换
透视变换的API和仿射变换的API很像,原理也相同,不同的只是由之前的三点变为四点法求透视变换矩阵,变换矩阵也由2*3变为3*3
M = cv2.getPerspectiveTransform(src_points, dst_points)
im_dst= cv2.warpPerspective(im_src, M, dsize = (w,h), flags = cv2.INTER_LINEAR)