DCMH阅读笔记(一)

手工设计特征(hand-crafted feature)

手工设计特征方法是指在目标检测算法中,通过人工设计图像特征来识别目标物体的算法。相对于基于深度学习的方法,手工设计特征方法需要对图像特征进行人工选择和设计,需要大量的专业知识和经验,但在一些场景中仍然有广泛的应用。

下面是一些常用的手工设计特征方法和举例:

Haar特征:Haar特征是一种用于目标检测的特征,它通过计算图像中的灰度差异来识别目标物体。Haar特征被广泛应用于人脸检测算法中,如Viola-Jones人脸检测算法。

HOG特征:HOG特征是一种用于目标检测的特征,它通过计算图像中梯度方向的直方图来识别目标物体。HOG特征被广泛应用于行人检测算法中,如Dalal-Triggs行人检测算法。

SIFT特征:SIFT特征是一种用于目标检测的特征,它通过检测图像中的局部极值点,并提取其局部特征来识别目标物体。SIFT特征被广泛应用于物体识别算法中。

SURF特征:SURF特征是一种用于目标检测的特征,它通过检测图像中的兴趣点,并计算其尺度不变特征来识别目标物体。SURF特征被广泛应用于物体识别算法中。

LBP特征:LBP特征是一种用于目标检测的特征,它通过计算图像中局部二值模式的直方图来识别目标物体。LBP特征被广泛应用于人脸检测算法中。

大佬的博客链接:https://blog.csdn.net/u013171226/article/details/113865307

文中的贡献就是提出了一个直接学习哈希码的方法,这一点看似简单其实很重要,很多其他方法是先学到一个实值向量后再做哈希化,但是这会导致量化损失。

端到端(end to end)

End to end:指的是输入原始数据,输出的是最后结果,应用在特征学习融入算法,无需单独处理。

end-to-end(端对端)的方法,一端输入我的原始数据,一端输出我想得到的结果。只关心输入和输出,中间的步骤全部都不管。

端到端指的是输入是原始数据,输出是最后的结果,原来输入端不是直接的原始数据,而是在原始数据中提取的特征,这一点在图像问题上尤为突出,因为图像像素数太多,数据维度高,会产生维度灾难,所以原来一个思路是手工提取图像的一些关键特征,这实际就是就一个降维的过程。

那么问题来了,特征怎么提?

特征提取的好坏异常关键,甚至比学习算法还重要,举个例子,对一系列人的数据分类,分类结果是性别,如果你提取的特征是头发的颜色,无论分类算法如何,分类效果都不会好,如果你提取的特征是头发的长短,这个特征就会好很多,但是还是会有错误,如果你提取了一个超强特征,比如染色体的数据,那你的分类基本就不会错了。

这就意味着,特征需要足够的经验去设计,这在数据量越来越大的情况下也越来越困难。
于是就出现了端到端网络,特征可以自己去学习,所以特征提取这一步也就融入到算法当中,不需要人来干预了。
简单来说就是深度神经网络处理问题不需要像传统模型那样,如同生产线般一步步去处理输入数据直至输出最后的结果(其中每一步处理过程都是经过人为考量设定好的 (“hand-crafted” function))。

与之相反,只需给出输入数据以及输出,神经网络就可以通过训练自动“学得”之前那些一步接一步的 “hand-crafted” functions。

我个人理解就是原来我输入的都是各种奇奇怪怪加工后的数据了,不是一开始的原始图像文本,但深度学习,他通过训练,得到了能直接把原始图像文本变成我想要的结果的模型,保留了原始图像文本的全部信息

汉明距离

下面引用自维基百科:

在信息论中,两个等长字符串之间的汉明距离(英语:Hamming distance)是两个字符串对应位置的不同字符的个数。换句话说,它就是将一个字符串变换成另外一个字符串所需要替换的字符个数。
对于两个数字来说,汉明距离就是转成二进制后,对应的位置值不相同的个数。例如,假设有两个十进制数a=93和b=73,如果将这两个数用二进制表示的话,有a=1011101、b=1001001,可以看出,二者的从右往左数的第3位、第5位不同(从1开始数),因此,a和b的汉明距离是2。

汉明距离是以理查德·卫斯里·汉明的名字命名的。在通信传输过程中,累计定长二进制字中发生翻转的错误数据位,所以它也被称为信号距离。汉明距离在包括信息论、编码理论、密码学等领域都有应用。

汉明距离及其高效计算方式:https://www.zhihu.com/tardis/zm/art/366064507?source_id=1005
图像相似度中的hash算法:https://www.cnblogs.com/Kalafinaian/p/11260808.html

负对数似然函数和最大似然

3.1.2中说的最小化 负对数似然函数 等价于最大化似然函数

交叉熵和负的对数似然函数:https://juejin.cn/post/7112373588007026695
一文搞懂熵和交叉熵:https://zhuanlan.zhihu.com/p/149186719
几个损失函数的讲解:https://www.bilibili.com/video/BV1Sv4y1A7dz/?spm_id_from=333.337.search-card.all.click&vd_source=9c70ccf025ddd007ffcefb8599ebde3d

公式

笔记

在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值