很多人都认为retinex和暗通道去雾是八杆子都打不着的增强算法。的确,二者的理论、计算方法都完全迥异,本人直接从二者的公式入手来简单说明一下,有些部分全凭臆想,不对之处大家一起讨论。
首先,为描述方便,后面所有的图像都是归一化到[0,1]的浮点数图像。
Retinex的公式就是:
J=I/L (1)
其中,J是所求的图像,I是观测图像,L是估计的光照图像。注意,由于有J、I、L的值都在区间[0,1]内,则有L>=I成立。(这里使用符号J和I,而不是常规的R和S,主要是为了和暗通道公式保持一致,便于比较)
暗通道去雾的公式为:
J=(I-A)/t+A (2)
其中,A是光照值,t是透射率。如果我们定义遮罩图像V1, 并令t=1-V1/A, 将其带入上面公式,则有:
J = (I-V1)/(1-V1/A) (3)
一般有I>=V1, 由于光照A的值一般都偏大,接近于1,那么上面公式再次简化为:
J = (I-V1)/(1-V1) (4)
仔细观察公式(1)和(4),你发现相似之处了吗?
在公式(1)中,I值介于0和L之间,其作用就是将I线性拉伸到[0,1]之间,公式(4)中,I值介于[V1,1]之间,其作用也是将其值线性拉伸到[0,1]之间。
所以,二者是类似的。
如果现在图像I值介于[V1,L]之间,那么自然地恢复公式是:
J = (I-V1)/(L-V1) (5)
如果直接套用上面公式到普通图像,效果很容易增强太过,毕竟难以找到又有较强雾霾有光照不足的场景。什么图像合适呢?标题已经点明了,HDR图像。V1也就是我前几天说的暗边界,L就是亮边界,三个RGB通道可以共用暗边界,但L要各自计算。此外,hdr的预处理也非常关键,比如进行对数操作,最后要采用非线性归一化操作。
话不多说,下面上图。左边是Luminance-HDR软件的结果,右边是我的增强结果。
软件EXE下载地址:http://pan.baidu.com/s/1cxKU0u
程序采用python实现,未经性能优化,exe中打包了python及numpy wxpython opencv等重量级模块,故体积较大,如杀毒软件误报为病毒,请信任运行。
下面是python全部代码(没有读取hdr文件部分,参见下一篇博客),只有98行哦
import cv2,wx
import numpy as np
from readHdr import readHdr #readHdr程序代码参见下一遍博客
def zmMinFilterGray(src, r=7): #计算最小值滤波,r是滤波器半径
if r <= 0:
return src
h, w = src.shape[:2]
I = src
res = np.minimum(I , I[[0]+range(h-1) , :])
res = np.minimum(res, I[range(1,h)+[h-1], :])
I = res
res = np.minimum(I , I[:, [0]+range(w-1)])
res = np.minimum(res, I[:, range(1,w)+[w-1]])
return zmMinFilterGray(res, r-1)
def guidedfilter(I, p, r, eps): #引导滤波
height, width = I.shape
m_I = cv2.boxFilter(I, -1, (r,r))
m_p = cv2.boxFilter(p, -1, (r,r))
m_Ip = cv2.boxFilter(I*p, -1, (r,r))
cov_Ip = m_Ip-m_I*m_p
m_II = cv2.boxFilter(I*I, -1, (r,r))
var_I = m_II-m_I*m_I
a = cov_Ip/(var_I+eps)
b = m_p-a*m_I
m_a = cv2.boxFilter(a, -1, (r,r))
m_b = cv2.boxFilter(b, -1, (r,r))
return m_a*I+m_b
def stretchImage2(data, vv = 10.0): #非线性拉伸
m = data-data.mean()
S = np.sign(m)
A = np.abs(m)
A = 1.0 - vv**(-A)
m = S*A
vmin, vmax = m.min(), m.max()
return (m-vmin)/(vmax-vmin)
def getV1(m, r, eps, ratio): #对所有通道求同样暗边界
tmp = np.min(m,2)
V1 = cv2.blur(zmMinFilterGray(tmp, 7), (7,7))
V1 = guidedfilter(tmp, V1, r, eps)
V1 = np.minimum(V1, tmp)
V1 = np.minimum(V1*ratio, 1.0)
return V1
def getV2(m, r, eps, ratio):
Y = np.zeros(m.shape)
for k in range(3): #对每个通道单独求亮边界
v2 = 1 - cv2.blur(zmMinFilterGray(1-m[:,:,k],7), (7,7))
v2 = guidedfilter(m[:,:,k], v2, r, eps)
v2 = np.maximum(v2, m[:,:,k])
Y[:,:,k] = np.maximum(1-(1-v2)*ratio, 0.0)
return Y
def ProcessHdr(m, r, eps, ratio, para1): #单尺度处理
V1 = getV1(m, r, eps, ratio) #计算暗边界
V2 = getV2(m, r, eps, ratio) #计算亮边界
Y = np.zeros(m.shape)
for k in range(3):
Y[:,:,k] = ((m[:,:,k]-V1)/(V2[:,:,k]-V1))
Y = stretchImage2(Y,para1) #非线性拉伸
return Y
def ProcessHdrMs(m, r=[161], eps=[0.005,0.001, 0.01], ratio=[0.98, 0.98, 0.92], para1=10.0): #多尺度处理
Y = []
for k in range(len(r)):
Y.append(ProcessHdr(m, r[k], eps[k], ratio[k], para1))
return sum(Y)/len(r)
if __name__ == '__main__':
import glob,os.path
for d in ['auto.hdr',]:
m = readHdr(d) #读取dhr文件, readHdr程序代码参见下一遍博客
m1,m2 = m.max(), m.min()
m = (m-m2)/(m1-m2) *255 #数据拉伸到[0,255]
m1 = m[:,:,0].copy(); m[:,:,0] = m[:,:,2]; m[:,:,2]=m1 #颜色通道调整,opencv里R和B反了
m = np.log(m+1)/np.log(256) #log处理
for i in range(2): #如果图像还是很暗,则需要多次log处理
tmp = np.max(m,2)
tmp = guidedfilter(tmp, tmp, 301, 0.01)
th = np.mean(tmp<0.05)
if th < 0.3:
break
m1 = np.log(m*255+1)/np.log(256)
tmp = np.clip(tmp, 0.0, 1.0) ** (0.05) #tmp是权重参数
for k in range(3): #取加权平均
m[:,:,k] = tmp*m[:,:,k] + (1-tmp)*m1[:,:,k]
m2 = ProcessHdrMs(m)*255
cv2.imwrite('%s.jpg' % d.split('.')[0], m2)