An overview of color constancy algorithms论文笔记

最近有个作业要写一份关于Retinex算法的综述,以下是摘抄自【An overview of color constancy algorithms】,关于Retinex算法部分的信息。

Retinex 理论在1970年左右由E.Land提出,这个理论是基于对人眼图像形成的研究及其对人类视觉系统的解释。这个方法通过心理实验研究颜色的恒常性。Land研究了人类视觉的亮度和色彩感知的心理方面,并提出了一种在机器视觉系统中获得类似性能的理论。Retinex不仅用作人类视觉颜色恒定的模型,还用作数字图像增强和亮度/色彩再现的平台。 Land的Retinex理论基于环绕函数的设计。 Hurlbert 通过选择三个不同的sigma值来提出高斯环绕函数,以实现良好的动态范围压缩和颜色再现。 从那时起,发表了许多Retinex理论实现,并且通过调整自由参数来优化Retinex算法的性能。。 多尺度Retinex(MSR)实现交织了许多图像处理操作,因此,颜色在图像中以不可预测的方式改变。 Barnard等人提出了一种方法,使MSR操作更加清晰,并确保色彩感。

Retinex算法的优势:1、改善图像视觉外观 2、在黑暗的图片上表现更好

                      缺点:1、较差的色彩保真度 2、要求选择最佳的自由参数

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
梯度下降优化算法概述 梯度下降是一种常用的优化方法,可以帮助我们找到使目标函数最小化或最大化的参数。随着机器学习和深度学习的发展,各种梯度下降算法也不断涌现。以下是一些常用的梯度下降优化算法的概述: 1. 批量梯度下降(Batch Gradient Descent):在每次迭代中,批量梯度下降使用所有样本的梯度来更新模型参数。适用于训练集较小、模型参数较少的情况。 2. 随机梯度下降(Stochastic Gradient Descent):在每次迭代中,随机梯度下降使用一个单独的样本来更新模型参数。适用于训练集较大、模型参数较多的情况。 3. 小批量梯度下降(Mini-batch Gradient Descent):小批量梯度下降是一种介于批量梯度下降和随机梯度下降之间的方法。它在每次迭代中使用一小部分样本的梯度来更新模型参数。适用于训练集规模较大的情况。 4. 动量(Momentum):动量算法加入了“惯性”的概念,可以加速梯度下降的收敛速度。在每次迭代中,动量算法使用上一次的梯度信息来更新模型参数。 5. 自适应梯度下降(Adaptive Gradient Descent):自适应梯度下降可以自适应地调整每个模型参数的学习率,以便更快地收敛到最优解。比如,Adagrad算法可以针对每个参数单独地调整学习率。 6. 自适应矩估计(Adaptive Moment Estimation):Adam算法是一种结合了Momentum和Adaptive Gradient Descent的算法。它可以自适应调整每个参数的学习率,并利用二阶矩来调整动量。 每种梯度下降算法都有其适用的场合,需要根据问题的性质来选择合适的算法

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值