学习之路
文章平均质量分 72
Tsparkle
这个作者很懒,什么都没留下…
展开
-
学习笔记——Transductive Segmentation of Live Video with Non-stationary Background(1)
首先,文章对以前的分割方法中默认的属性——即认为待处理的图像处于静止状态,从而忽略了前景物体移动带来的动态阴影和摄像机抖动的影响。此前也有人做过类似的研究,但提出的解决方案都是基于获取一个预先构建的背景图像,通过这种背景图像去矫正处理图像,这对于移动的摄像机来说显然是难以满足的。为了解决这一问题,作者首先提出一种连续性假设并认为这种假设具有相当的普适性:在图像中相邻帧的配准像素,图像(猜测是指坐标)和颜色空间都不会出现大的偏移。同时,作者指出,这种普适性也具有一定局限:对前一帧的图像分割...原创 2022-04-18 10:04:56 · 154 阅读 · 0 评论 -
学习笔记——A novel hybrid CNN–SVM classifier for recognizing handwritten digits
本文章主要研究对SVM和CNN的融合,用SVM分类器替换了CNN模型的最后一个输出层,在常规CNN模型中,这层输出对预测样本的预测概率,其公式为F=g(WX+b)(g为激活函数)。X为最后一层隐藏层的输出,在常规的训练中,一般认为这种输出是无意义的,但本文作者认为该输出是一种能够作为分类器输入的特征。因此,该论文尝试使用SVM代替原始F对输出进行决策。 首先介绍下这篇文章使用的CNN结构,作者没有特意设计网络而是只做了两次特征提取,从给出的变换公式来看,使用了5*5的kar...原创 2022-04-11 10:54:53 · 2657 阅读 · 0 评论 -
d2l卷积神经网络学习笔记(2)——浅谈残差网络ResNet
1.关于残差网络残差网络从实现原理上并不复杂,但是关于具体的原理一开始比较难理解,找了一些资料也有了一点想法。(1).我们要解决什么问题首先,网络的性能并不是随网络层数加深而上升的,这是很符合直觉的,毕竟有过拟合的先例。但是实际上,即使网络还处于欠拟合,更深层次的网络也会导致性能的下降,也就是网络退化,要理清这一现象,需要先引入一个概念,恒等映射。恒等映射简单的讲就是f(x)=x,在我们预期中,一个理想的网络使用m层完成了最优拟合,那么在将网络增加到m+1层时,其输出应当也和m层一致。也就是说,原创 2022-03-14 21:06:46 · 2702 阅读 · 0 评论 -
d2l卷积神经网络学习笔记(1)
1.由于输入数据为图像,1024*1024*3水平的特征数量难以处理,通过引入卷积核进行对输入图像像素的批量卷积(或者按照d2l的说法,互相关运算,我觉得这个描述更能体现卷积核在其感受野内对图像小范围整体学习的特性)进行整体层面的特征学习。2.通过调节卷积核,可以方便的降低特征数量。单通道stride为1且不考虑填充情况下,对a*b尺寸的图像通过一个c*d尺寸的卷积核,能够将a*b像素代表的信息压缩到(a-c+1)*(b-d+1),而更加重要的是,我们将需要反向传播优化的特征信息从全连接方法的a*b降低原创 2022-03-10 15:22:22 · 3754 阅读 · 0 评论 -
pytorch学习遇到的问题汇总
1.向量求导向量对向量求导 - _yanghh - 博客园 (cnblogs.com)https://www.cnblogs.com/yanghh/p/13758243.html原创 2022-02-23 21:01:05 · 853 阅读 · 0 评论 -
cv.normalize函数使用中的故障排除
这几天在看opencv4,对着买的书附送的源码学习了一个月,说实话手头这本书的源码质量一般,相当多的小问题,不过也锻炼了自己的代码水平,这次这个问题比较有意思,分享给大家。这是最早报错的提示,一开始我以为是读入的prob类型不匹配(这个思路误导了我一个周末),在这个思路下我对prob进行了相当多的调试(包括上面注释掉的部分,当时怀疑是数组尺度问题,专门又回去复习了一遍数组reshap和transpose的区别),然后又怀疑是normalize识别的prob是不是因为不是标准BGR或者HSV不能识别,最后原创 2021-10-24 22:38:42 · 1574 阅读 · 5 评论