论文阅读——《Exposure Control using Bayesian Optimization based on Entropy Weighted Image Gradient》

《Exposure Control using Bayesian Optimization based on Entropy Weighted Image Gradient》

最近这是一篇在2018年ICRA上发表的会议论文,主要内容是提出一种新的曝光评价标准,以及一种新的自动曝光控制策略,关于自动曝光的其他文章可以参考我之前的这篇博客:
图像传感器与信号处理——自动曝光算法
我之前这篇博客分享了两篇2017年发表的利用梯度进行自动曝光的文章,这篇文章中在相关工作中也提到了,说之前的那两篇只考虑了梯度信息,对于过曝光和欠曝光的处理效果不佳,这篇文章对于这个问题则有更好的解决方案。

1. 曝光评价标准——熵权梯度

所谓“熵权梯度”就是用图像熵来作为梯度的权值

2.1 什么是图像熵?

这个熵是以像素为单位来定义的(参考《A mathematical theory of communication》),其计算公式是: H i = − ∑ k P ( i k ) log ⁡ 2 ( P ( i k ) ) H_{i}=-\sum_{k} P\left(i_{k}\right) \log _{2}\left(P\left(i_{k}\right)\right) Hi=kP(ik)log2(P(ik))其中 P ( ⋅ ) P(\cdot) P()是和像素梯度级数 k k k相关的概率,因此在计算这个概率之前需要先计算像素 i i i的梯度 ∥ ∇ I ( i ) ∥ 2 \|\nabla I(i)\|^{2} I(i)2图像熵可以描述这个像素周围纹理复杂程度,图像熵大则说明这个像素周围纹理复杂。

2.2 为什么用图像熵?

文中说利用图像熵一方面可以最小化图像梯度噪声,另一方面可以建立一个饱和区域蒙版,减小过曝光或欠曝光区域来提升图片整体效果。

2.3 怎么使用图像熵?

这就是最重要的,首先曝光评价标准的计算公式为: G ewg  = ∑ g i G_{\text {ewg }}=\sum g_{i} Gewg =gi其中, g i g_i gi就是熵权梯度,这里先给出熵权梯度的定义公式: g i = W i ∥ ∇ I ( i ) ∥ 2 + π ( H i ) M i ( H i ) W i 1 N ∑ j = 0 N − 1 ∥ ∇ I ( j ) ∥ 2 g_{i}=W_{i}\|\nabla I(i)\|^{2}+\pi\left(H_{i}\right) M_{i}\left(H_{i}\right) W_{i} \frac{1}{N} \sum_{j=0}^{N-1}\|\nabla I(j)\|^{2} gi=WiI(i)2+π(Hi)Mi(Hi)WiN1j=0N1I(j)2可以看出,这个图像熵公式由两部分构成,第一部分 W i ∥ ∇ I ( i ) ∥ 2 W_{i}\|\nabla I(i)\|^{2} WiI(i)2是主要部分,第二部分 π ( H i ) M i ( H i ) W i 1 N ∑ j = 0 N − 1 ∥ ∇ I ( j ) ∥ 2 \pi\left(H_{i}\right) M_{i}\left(H_{i}\right) W_{i} \frac{1}{N} \sum_{j=0}^{N-1}\|\nabla I(j)\|^{2} π(Hi)Mi(Hi)WiN1j=0N1I(j)2就是通过建立蒙版来减小过曝光或欠曝光区域的,下面分别解析:

(1)第一部分 W i ∥ ∇ I ( i ) ∥ 2 W_{i}\|\nabla I(i)\|^{2} WiI(i)2
权重 W i W_{i} Wi的定义公式如下: W i = w i ∑ i = 0 N − 1 w i W_{i}=\frac{w_{i}}{\sum_{i=0}^{N-1} w_{i}} Wi=i=0N1wiwi其中 w i = 1 σ exp ⁡ { ( H i − mean ⁡ ( H i ) ) 2 2 σ 2 } w_{i}=\frac{1}{\sigma} \exp \left\{\frac{\left(H_{i}-\operatorname{mean}\left(H_{i}\right)\right)^{2}}{2 \sigma^{2}}\right\} wi=σ1exp{2σ2(Himean(Hi))2}其中 σ \sigma σ是方差, i i i是像素位置。根据公式,大的图像熵将获得较大的权值,反之则权值较小。

(2)第二部分 π ( H i ) M i ( H i ) W i 1 N ∑ j = 0 N − 1 ∥ ∇ I ( j ) ∥ 2 \pi\left(H_{i}\right) M_{i}\left(H_{i}\right) W_{i} \frac{1}{N} \sum_{j=0}^{N-1}\|\nabla I(j)\|^{2} π(Hi)Mi(Hi)WiN1j=0N1I(j)2
激活函数 π ( H i ) \pi\left(H_{i}\right) π(Hi)的定义公式如下: π ( H i ) = 2 1 + exp ⁡ ( − α H i + τ ) − 1 , 0 ≤ H i ≤ 1 \pi\left(H_{i}\right)=\frac{2}{1+\exp \left(-\alpha H_{i}+\tau\right)}-1,0 \leq H_{i} \leq 1 π(Hi)=1+exp(αHi+τ)21,0Hi1其中参数 α \alpha α控制像素 i i i的图像熵和梯度的之间的关系,如果 α \alpha α较大时则考虑更多图像熵的因素,饱和区域会更快被控制,如果 α \alpha α较小时则考虑更多梯度的因素。参数 τ \tau τ控制可以被视作饱和区域像素的最小图像熵水平,激活函数随这两个参数变化的图像如下图所示:在这里插入图片描述
这里指的注意的是,激活函数输入的是像素的图像熵,从图像上可以很直观的看到,小的图像熵激活函数输出负值,大的则输出正值。
蒙版函数 M i ( H i ) M_{i}\left(H_{i}\right) Mi(Hi)的定义公式如下: M i ( H i ) = { 0 , H thres ≤ H i ≤ 1 1 , 0 ≤ H i < H thres M_{i}\left(H_{i}\right)=\left\{\begin{array}{ll} {0,} & {H_{\text {thres}} \leq H_{i} \leq 1} \\ {1,} & {0 \leq H_{i}<H_{\text {thres}}} \end{array}\right. Mi(Hi)={0,1,HthresHi10Hi<Hthres通过公式可以看出,当图像熵较大时,蒙版输出为0,当图像熵较小时,蒙版输出为1。也就说蒙版只对图像熵小的像素进行限制。
结合激活函数和蒙版函数的特性知道,过曝光或者欠曝光区域像素图像熵通常较小,第二部分因此在这些像素上输出小值或者负值,使得过曝光或者欠曝光的图像按照曝光评价标准计算出来更小。

2.4 评价效果怎么样?

文中给了这样一幅图:在这里插入图片描述其中红色标记和红色曲线为本文的评价标准,可以看出来最优的曝光图片其过曝光区域确实相对较小。

2. 自动曝光控制——贝叶斯优化

有了曝光评价函数后就需要考虑如果通过曝光评价函数来进行自动曝光控制,以获取最优曝光,目前我看过好几种算法了,例如在《Active Exposure Control for Robust Visual Odometry in HDR Environments,2017》中,文中采用的是通过就曝光评价函数对曝光时间的偏导,然后通过高斯牛顿法获取最优曝光。在《Gradient-based Camera Exposure Control for Outdoor Mobile Platforms,2018》中是通过最优 γ \gamma γ矫正来获取最优曝光。本文提出一种基于贝叶斯优化的自动曝光控制算法,挺有意思。

2.1 什么是贝叶斯优化?

贝叶斯优化算法通常用在机器学习中寻找最优超参数的问题中,具体问题可以这么描述,如下: X ∗ = arg ⁡ x ∈ S max ⁡ f ( x ) X^{*}=\arg _{x \in S} \max f(x) X=argxSmaxf(x)其实就是在集合 S S S中选择参数 x x x使得函数 f ( x ) f(x) f(x)最大,最核心的问题就是函数 f f f是未知且不一定是凸函数,对应到我们自动曝光过程中,参数 x x x就是曝光程度,而函数 f f f就是曝光评价随曝光程度的变化趋势

2.2 贝叶斯优化是如何进行?

文中这幅图就很形象地说明了贝叶斯优化的过程:
在这里插入图片描述
贝叶斯优化算法最核心的内容主要有两部分构成,分别是Prior FunctionAcquisition Function,下面分别进行说明:

(1)Prior Function
前面提到,我们要求的函数 f f f是完全未知的,因此我们就要通过模型建立Prior Function,在上图中,蓝色曲线就是我们要求的函数 f f f,而"紫色栅格"就是基于高斯模型建立的Prior Function,基于高斯模型建立的Prior Fuction这个函数的自变量对应的不是一个标量,而是一个高斯分布。从上图中可以看到,贝叶斯优化的过程实际上就是不断采样使得Prior Fuction不断逼近函数 f f f(如何采样就和Acquisition Function有关),其具体公式如下: μ ( x ∗ ) = k ∗ T ( K + σ n 2 I ) − 1 y σ 2 ( x ∗ ) = k ( x ∗ , x ∗ ) − k ∗ T ( K + σ n 2 I ) − 1 k ∗ \begin{aligned} \mu\left(x_{*}\right) &=\mathbf{k}_{*}^{T}\left(K+\sigma_{n}^{2} I\right)^{-1} \mathbf{y} \\ \sigma^{2}\left(x_{*}\right) &=k\left(x_{*}, x_{*}\right)-\mathbf{k}_{*}^{T}\left(K+\sigma_{n}^{2} I\right)^{-1} \mathbf{k}_{*} \end{aligned} μ(x)σ2(x)=kT(K+σn2I)1y=k(x,x)kT(K+σn2I)1k其中,内核矩阵 K = [ k ( x i ) , k ( x j ) ] x i , x j ∈ x K=\left[k\left(x_{i}\right), k\left(x_{j}\right)\right]_{x_{i}, x_{j} \in \mathbf{x}} K=[k(xi),k(xj)]xi,xjx k ∗ = [ k ( x i , x ∗ ) ] x i ∈ x \mathbf{k}_{*}=\left[k\left(x_{i}, x^{*}\right)\right]_{x_{i} \in \mathbf{x}} k=[k(xi,x)]xix,其中 x \mathbf{x} x是已有的采样点集合, k ( ⋅ , ⋅ ) k(\cdot, \cdot) k(,)是内核函数,本文采用的是平方指数函数。那么 μ ( x ∗ ) \mu\left(x_{*}\right) μ(x) σ 2 ( x ∗ ) \sigma^{2}\left(x_{*}\right) σ2(x)分别是函数在自变量 x ∗ x_{*} x处的均值方差。

(2)Acquisition Function
前文提到要如何进行采样,Acquisition Funtion就是根据当前的Prior Function获取下一阶段采样的算法,文中分为 MAXVAR \text{MAXVAR} MAXVAR算法和 MAXMI \text{MAXMI} MAXMI算法.

那么论文中整个控制算法的伪代码如下图所示,我觉得有了前面的理解,对伪代码的阅读就没那么困难了,只是可能复现出来还有一定难度:
在这里插入图片描述
在这里插入图片描述
其中 x = ( x 0 , ⋯   , x m ) \mathbf{x}=\left(x_{0}, \cdots, x_{m}\right) x=(x0,,xm) y = ( y 0 , ⋯   , y m ) \mathbf{y}=\left(y_{0}, \cdots, y_{m}\right) y=(y0,,ym),我按照对算法的理解绘制了如下流程图,便于理解:
在这里插入图片描述
最后实验结果部分就不介绍了,反正很牛逼就对了,这里是实验结果视频,好啦,那么这篇paper就总结到这儿,不知道2019和2020有没得更新的成果,花时间去找找,有问题欢迎交流~

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值