- 博客(9)
- 资源 (2)
- 收藏
- 关注
转载 RANSAC算法理解
RANSAC是“RANdom SAmple Consensus(随机抽样一致)”的缩写。它可以从一组包含“局外点”的观测数据集中,通过迭代方式估计数学模型的参数。它是一种不确定的算法——它有一定的概率得出一个合理的结果;为了提高概率必须提高迭代次数。RANSAC的基本假设是:(1)数据由“局内点”组成,例如:数据的分布可以用一些模型参数来解释;(2)“局外点”是不能适应该模型的数据;(3)除此之外的数据属于噪声。局外点产生的原因有:噪声的极值;错误的测量方法;对数据的错误假设。R...
2021-09-28 15:30:58 32590 2
原创 Windows下select模型(以及EAGAIN、EWOULDBLOCK、EINTR)
在这里记录一下,以前都是新项目用到了就从旧项目中拷贝。自从将博客当作记事本,发现自己多了一个好习惯。Windows下select模型_程序员攻略-CSDN博客EAGAIN、EWOULDBLOCK、EINTR - markqian86 - C++博客...
2021-09-28 11:15:36 609
原创 pytorch标准化(Batch Normalize)中计算数据集的均值和方差
1,浅谈深度学习训练中数据规范化(Normalization)的重要性为什么要Normalization? 请参考浅谈深度学习训练中数据规范化(Normalization)的重要性 - Oldpan的个人博客
2021-09-26 15:12:32 1441
转载 图像检索系列——利用深度学习实现以图搜图
转载自:图像检索系列——利用深度学习实现以图搜图 - 知乎前言在上一篇文章《图像检索系列——利用 Python 检测图像相似度》中,我们介绍了一个在图像检索领域非常常用的算法——感知哈希算法。这是一个很简单且快速的算法,其原理在于针对每一张图片都生成一个特定的“指纹”,然后采取一种相似度的度量方式得出两张图片的近似程度。然而随着深度学习的崛起,极大的推动了图像领域的发展,在提取特征这方面而言,神经网络目前有着不可替代的优势。在上一篇文章中我们也介绍了图像检索往往是基于图像的特征比较,看特征匹配的
2021-09-24 11:33:36 8502 2
原创 归一化互相关(NCC)及其部分应用场景
1,如何理解归一化互相关(NCC)2,部分应用场景基于灰度的匹配一般被称为模版匹配,直接以灰度进行匹配效果不好,对光照很敏感,所以一般会以灰度归一化互相关(NCC)作为匹配依据,增强光照变化下的鲁棒性,为了降低计算量,多采用图像金字塔来实现先粗后精的方式加快匹配速度,匹配出像素位置后,会进一步做亚像素插值,使匹配出的位置达到更高的精度,处理旋转和缩放也很直接,就是在限定的角度范围和缩放比例内,取一定的步长生成多张模版,一一进行匹配。模版匹配处理遮挡比较困难,对光照变化想...
2021-09-24 11:27:08 2181
原创 为何pytorch预训练的resnet模型对输入图片的大小无要求?
原本的ResNet18模型对于输入的训练图像是有严格的大小限制的,规定的大小为224*224。但是最近发现Pytorch中预训练的resnet模型时,输入图片的大小为200*200或者是其他尺寸时也可以。 于是就好奇到底是什么原因。1,RESNET-18网络图示理解17个卷积层(conv)+1个全连接层(fc)提示: BN 就是批量归一化 RELU 就是**函数 lambda x:x 这个函数的意...
2021-09-23 14:37:56 10803 1
原创 pytorch里transforms.ToTensor和Normalize()
Pytorch官方文档:1, change H W C to C H W;2, 将【0,255】映射为【0,1】
2021-09-20 00:12:46 560
转载 神经网络中pooling池化层如何参与反向传播?
池化层pooling操作常见的有平均池化mean pooling和最大池化max pooling,前者取某特征区域的平均值进行输出,而后者则取某特征区域的最大值进行输出,池化层的一般作用是对特征图进行下采样,它本身没有参数权重,计算也简单,但它可达到降维特征、突显特征、减少参数量、减少计算量、增加非线性、防止过拟合及提升模型泛化能力等作用,池化层的前向传播我们都比较好理解,但是其是如何参与反向传播的呢?本文就让我们一起来了解关于池化层的反向传播实现方法吧。池化层在反向传播时,它是不可导的,...
2021-09-16 17:02:49 1765
原创 智能指针的使用
智能指针在C++11版本之后提供,包含在头文件<memory>中,shared_ptr、unique_ptr、weak_ptr。1,shared_ptr的使用shared_ptr使用引用计数,每一个shared_ptr的拷贝都指向相同的内存。每使用他一次,内部的引用计数加1,每析构一次,内部的引用计数减1,减为0时,自动删除所指向的堆内存。shared_ptr内部的引用计数是线程安全的,但是对象的读取需要加锁。初始化。智能指针是个模板类,可以指定类型,传入指针通过构造函数初始
2021-09-01 14:04:23 1438
Windows C++访问SQL SERVER数据库项目实战案例
2022-09-05
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人