机器学习
文章平均质量分 70
佳佳费_
计算机 IT 图像处理 机器学习(争取博客周更)
展开
-
浅谈ISP-图像噪声模型2
浅谈ISP-图像噪声模型2原创 2022-07-17 19:15:15 · 2088 阅读 · 0 评论 -
浅谈ISP-噪声模型1
浅谈ISP-图像噪声模型1原创 2022-07-17 19:10:04 · 1581 阅读 · 0 评论 -
浅谈ISP-LSC
一.现象如图所示是拍摄纯灰色卡时shading的具体现象,左侧称为Luma shading,右侧称为color shading。如上右图,局部色偏的问题有很多,相较于black level或者awb等这些global的操作造成整体性的变化,shading correction 和linearization往往是只造成局部区域和某个亮度范围的偏差,本文接下来介绍一下shading correction。二.原因分析2.1 Lumashading原因引起Luma shading的主要原因原创 2022-03-19 22:53:34 · 2257 阅读 · 1 评论 -
浅谈ISP-DPC
浅谈ISP-dpc原创 2022-03-19 22:40:21 · 4944 阅读 · 0 评论 -
浅谈isp-OB
1.WhatisOB or BLCOB(OpticalBlack),是值sensor在没有感光的情况下,内部产生了电流,影响了正常情况下sensor的感光电流,在sensor内部一般有硬件设计来读取对应的OB值,如下图1所示,sensor上预留了一些完全没有曝光的像素,通过读取这些像素值的大小,可以实时得到optical black level。此时,RAW=sensor input -OBC。经过上面的处理,raw数据减少,但是实际AD芯片(模数转换芯片)的精度可能无...原创 2021-11-07 16:03:50 · 3669 阅读 · 1 评论 -
内容说明
我的公众号会继续分享图像处理、人工智能等方面的内容,为了方便更方便的分享和学习,欢迎大家关注我的个人公众号,csdn和公众号也会同时更新哦,谢谢!原创 2021-02-23 22:37:11 · 124 阅读 · 0 评论 -
局部响应值归一化(Local Response Normalization,LRN)
LRN是一种提高深度学习准确度的技术方法。LRN一般是在激活、池化函数后的一种方法。 在ALexNet中,提出了LRN层,对局部神经元的活动创建竞争机制,LRN仿造生物学上活跃的神经元对相邻神经元的抑制现象(侧抑制)。好处有以下两点:归一化有助于快速收敛; 对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。在2012...原创 2018-08-02 16:12:53 · 762 阅读 · 0 评论 -
softmax函数和softmax_loss
softmax 函数softmax(柔性最大值)函数,一般在神经网络中, softmax可以作为分类任务的输出层。其实可以认为softmax输出的是几个类别选择的概率,比如我有一个分类任务,要分为三个类,softmax函数可以根据它们相对的大小,输出三个类别选取的概率,并且概率和为1。softmax函数的公式是这种形式: Si=ezi∑kezkSi=ezi∑kezkSiSi代表的...转载 2018-08-02 16:56:28 · 5627 阅读 · 1 评论 -
激活函数(转)
神经网络之激活函数(Activation Function)本博客仅为作者记录笔记之用,不免有很多细节不对之处。还望各位看官能够见谅,欢迎批评指正。更多相关博客请猛戳:http://blog.csdn.net/cyh_24如需转载,请附上本文链接:http://blog.csdn.net/cyh_24/article/details/50593400日常 coding 中,...转载 2018-08-02 18:16:35 · 401 阅读 · 0 评论