自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(33)
  • 收藏
  • 关注

原创 卡尔曼滤波

感谢大佬:421施公队文章目录一、适用范围:二、进阶1.状态方程表达式2. 高斯分布三、放弃1.卡尔曼公式理解1) x^t−=Fx^t−1+But−1\hat{x}_{t}^{-}=F\hat{x}_{t-1}+Bu_{t-1}x^t−​=Fx^t−1​+But−1​2)Pt−=FPt−1FT+QP^{-}_{t}=FP_{t-1}F^{T}+QPt−​=FPt−1​FT+Q3) 测量:Zt=Hxt+vZ_{t}=Hx_{t}+vZt​=Hxt​+v4)更新卡尔曼增益(与Q、R有关)5)修正估计(最终滤波

2021-12-08 14:35:05 1818

原创 Track to Detect and Segment: An Online Multi-Object Tracker

文章目录摘要摘要&wmsp;&e,sp;大多数在线多目标跟踪器在神经网络中独立执行目标检测,无需任何跟踪输入。在本文中,我们提出了一种新的在线联合检测和跟踪模型,TraDeS(TRAck-to-DEtect和Segment),利用跟踪线索来辅助端到端的检测。TraDeS根据代价成本以估计跟踪对象的偏移量,这使用了TraDeS根据成本量推断对象跟踪偏移量,该成本量用于传播以前的对象特征,以改进当前的对象检测和分割。交易的有效性和优势体现在4个数据集上,包括MOT(2D跟踪)、nuScen

2021-10-25 21:42:52 564

原创 Patches Are All You Need?

paper:https://openreview.net/forum?id=TVHS5Y4dNvMcode:https://github.com/tmp-iclr/convmixer名词解释:patch:因为transformer的输入是在backbone的feature map,可以视feature map的每一个像素均为原图的一块,也就是本文的patch。前言:作者很有个性,基本上没按八股格式写,而且非常的简洁,若看代码,会发现比论文还简洁,很容易看懂。另外本文是不是也证明了若使用大尺寸卷积+大

2021-10-23 11:53:00 1038

原创 论文阅读++++

注:红色未读,蓝色已读文章目录1.arxiv2.cvpr20213.iccv20211.arxiv2.cvpr2021Track to Detect and Segment: An Online Multi-Object Tracker: paper: https://arxiv.org/abs/2103.08808 code:https://github.com/JialianW/TraDeS demo:https://jialianwu.com/projects/TraDeS.html

2021-10-22 18:03:25 1320

原创 ByteTrack: Multi-Object Tracking by Associating Every Detection Box

codepaper文章目录摘要1.引言3.BYTE4.ByteTrack摘要  多目标跟踪(MOT)旨在估计视频中目标的边界框和身份。大多数方法通过关联分数高于阈值的检测框来获得身份。检测分数低的对象,如:被遮挡的物体被简单地扔掉,这带来了不可忽略的真实物体丢失(即假阴)和轨迹的碎片化(即导致idsw升高)。为了解决这一问题,我们提出了一种简单、有效和通用的关联方法,即通过关联每个检测框而不是仅关联高分检测框来进行跟踪。对于低分数检测框,我们利用它们与轨迹的相似性来恢复真实对象并过滤掉背景检测。当应

2021-10-19 20:30:08 955 1

原创 从风险到正则

文章目录1.损失、经验风险与期望风险2.经验风险的不足(一味降低容易出现过拟合)3.正则化以稀释权重4.结构风险5.正则化公式1.损失、经验风险与期望风险在模型训练的某一轮中,样本的预测值与真值的差距即为损失函数。在对所有样本求损失后,求平均的结果即为**经验风险**。 所谓经验风险最小化即对训练集中的所有样本点损失函数的平均最小化。经验风险越小说明模型f(x)对训练集的拟合程度越好。对全局样本的预测能力即为期望风险。常用验证集/测试集的损失进行代替。2.经验风险的不足(一味降低容易出现过拟合)

2021-10-06 15:39:02 88

原创 优化器++++++

文章目录一、梯度下降法(GD,Gradient Descent)原理缺点优化点二、缩小计算量1.随机梯度下降(SGD)原理证明:2.小批量梯度下降法(MBGD)三、优化梯度下降过程1.牛顿法理解缺点:2.动量法(也叫冲量法),参考了历史数据如何实现?名字的由来3.Nesterov法(又名牛顿冲量法,与牛顿无关,参考未来数据)如何实现?4. AdaGrad(针对学习率的修正)如何实现缺点:5.RMSprop(使用指数加权考虑历史信息的重要性以修正adagrad)6.Adam(RMS+动量法)一、梯度下降法(

2021-10-04 12:49:40 103

原创 iou-giou-diou-ciou-nms相关code

import mathimport numpydef iou(box1,box2): x1,y1,x2,y2=box1 x3,y3,x4,y4=box2 area1=max(0,x2-x1+1)*max(0,y2-y1+1) area2=max(0,x4-x3+1)*max(0,y4-y3+1) xx1=max(x1,x3) yy1=max(y1,y3) xx2=min(x2,x4) yy2=min(y2,y4)

2021-09-30 09:13:39 226

原创 检测、跟踪的评价指标

文章目录一、检测1.TP、TN、FP、FN2.指标二、跟踪1.TP、TN、FP、FN2.指标一、检测1.TP、TN、FP、FNTrue positives : 正样本被正确识别为正样本。True negatives: 负样本被正确识别为负样本。False positives: 假的正样本,即负样本被错误识别为正样本。False negatives: 假的负样本,即正样本被错误识别为负样本。2.指标Precision:识别出来的图片中,True positives所占的比率。Precisio

2021-09-28 17:00:34 426

原创 rcnn->fast->faster

感谢b站up【霹雳吧啦Wz】文章目录一、RCNN1.RCNN的流程2.RCNN的缺点二、Fast-RCNN1.Fast RCNN流程3.训练时正负样本的判断4.损失函数:三、Faster-RCNN(RPN+fast-rcnn)1.Faster-RCNN流程2.RPN3.RPN正负样本的判断4.RPN损失函数:4.1分类损失4.2 边界框回归损失![在这里插入图片描述](https://img-blog.csdnimg.cn/25cb77b15c9e44618c29a58744c5b722.png?x-os

2021-09-22 17:45:45 155

原创 卷积++++(未完待续)

文章目录1、卷积为什么可以提取特征2、1*1卷积的作用3、其他的一些卷积1、卷积为什么可以提取特征2、1*1卷积的作用3、其他的一些卷积

2021-09-22 15:03:17 122

原创 面试准备+++(快失业啦,欢迎看到的大神救救我)

文章目录一、深度/机器学习基础知识损失函数激活函数归一化正则化拟合相关数据增强卷积相关二、检测相关知识yolo系rcnn系centernet系(个人认为detr也可以算此类)三、跟踪相关知识sort/deepsortfairmottrantrack四、算法相关背包二叉树链表组合一、深度/机器学习基础知识损失函数激活函数归一化正则化拟合相关数据增强卷积相关二、检测相关知识yolo系rcnn系centernet系(个人认为detr也可以算此类)三、跟踪相关知识sort/deepsort

2021-09-22 15:02:36 143

原创 数据增强++++

文章目录一、有监督的数据增强1.单样本数据增强1.1 几何变换类(改变图像本身的内容,它可能是选择了图像的一部分或者对像素进行了重分布)1.2颜色变换类()2.多样本数据增强2.1mixup2.2Mosaic数据增强二、无监督的数据增强1.GAN2. Autoaugmentation一、有监督的数据增强有监督数据增强,即采用预设的数据变换规则,在已有数据的基础上进行数据的扩增,包含单样本数据增强和多样本数据增强,其中单样本又包括几何操作类,颜色变换类。1.单样本数据增强所谓单样本数据增强,即增强一个

2021-09-21 21:00:05 348

原创 拟合++++

文章目录1、欠拟合(高偏差)1.1解决方法:2、过拟合(高方差)2.1解决方法(1)增加数据:(2)使用合适的模型(3)使用dropoutdropout代码:dropout为什么可以避免过拟合dropout的使用流程dropout为什么要除1-p1、偏差bias:偏差是指预测结果与真实值之间的差异,排除噪声的影响,偏差更多的是针对某个模型输出的样本误差,偏差是模型无法准确表达数据关系导致,比如模型过于简单,非线性的数据关系采用线性模型建模,偏差较大的模型是错的模型;2、方差variance:模型方差不是

2021-09-21 19:02:03 79

原创 归一化+++

文章目录1、BN1.1BN解决的问题:1.2bn的参数1.3BN的前传1.4BN的参数的训练1.5BN的缺点:2、LN2.1LN和BN的区别2.2LN的前传3、IN(可以理解为batch=1的BN)3.1IN前传4、GN1、BN1.BN的计算就是把每个通道的NHW单独拿出来归一化处理2.针对每个channel我们都有一组γ,β,所以可学习的参数为2*C1.1BN解决的问题:第一个就是可以解决内部协变量偏移,简单来说训练过程中,各层分布不同,增大了学习难度,BN缓解了这个问题。当然后来也有论文证明B

2021-09-21 12:13:23 158

原创 激活函数+++

文章目录1、sigmod1.1 公式1.2导数1.3优缺点1.4梯度消失的原因2、tanh2.1公式2.2求导2.3优缺点3、relu3.1公式3.2 优缺点4、softmax4.1公式4.2优缺点softmax的损失函数(交叉熵)1、sigmod1.1 公式1.2导数1.3优缺点优点:在特征比较复杂或者相差不是很大时效果较好;可以用于二分类缺点:计算量大;反向传播求梯度时涉及除法;反向传播时容易出现梯度消失的情况,函数收敛缓慢。1.4梯度消失的原因对激活函数进行求导 fx′f^{'}_

2021-09-21 09:54:00 95

原创 组合+++

文章目录1、返回数量(常用背包解决)2、返回组合种类2.1不可重复2.2可重复2.3k个目标和为n1、返回数量(常用背包解决)背包问题的解法2、返回组合种类2.1不可重复39. 组合总和17. 电话号码的字母组合2.2可重复40. 组合总和 II2.3k个目标和为n216. 组合总和 III...

2021-09-18 13:36:19 79

原创 链表+++

文章目录1、链表的生成与读取2、链表的删除、插入3、链表的操作(翻转,回文,分隔)1、链表的生成与读取class listnode: def __init__(self,val=None,next=None): self.val=val self.next=nextnode=listnode(val=0,next=None)head=nodefor i in range(5): node.next=listnode(i) node=node

2021-09-16 10:15:34 87

原创 二叉树+++

文章目录1、生成二叉树1.1由列表生成一个二叉树:1.2由字符串生成一个二叉树2、遍历二叉树3、二叉树属性3.1 对称3.2 深度查询3.2节点数的统计3.3平衡3.4路径和4、 二叉树的操作5、祖先6、二叉搜索树1、生成二叉树1.1由列表生成一个二叉树:105. 从前序与中序遍历序列构造二叉树106. 从中序与后序遍历序列构造二叉树889. 根据前序和后序遍历构造二叉树.1.2由字符串生成一个二叉树536. 从字符串生成二叉树2、遍历二叉树前序遍历(根左右)144. 二叉树的前序遍历

2021-09-13 14:10:15 60

原创 损失函数+++

文章目录1、 LR的损失函数2、相对熵(KL散度)3、交叉熵3.1交叉熵函数与最大似然函数的联系和区别?4、log loss5、均方误差(Mean Squared Error)6、均方根误差7、平均绝对误差8、focal loss1、 LR的损失函数最大似然损失函数(MLE)Loss=−yi∗log(p(xi))−(1−yi)∗log(1−p(xi))Loss=-y_{i} *log(p(x_{i}))-(1-y_{i})*log(1-p(x_{i}))Loss=−yi​∗log(p(xi​))−(1

2021-09-10 00:30:36 180

原创 背包问题的解法

文章目录1、判断背包类型:2、判断条件的确定:1、判断背包类型:1、0-1背包:即数组中的元素不可重复使用(不需要考虑元素顺序)#nums放在外循环,target在内循环,且内循环倒序;for num in nums: for i in range(target,num-1,-1):2、完全背包,即数组中的元素可重复使用#nums放在外循环,target在内循环。且内循环正序。;for num in nums: for i in range(num,target+1):3

2021-09-09 20:18:20 255

原创 用bash判断环境变量是否有值

任务:现在有一个环境变量LOG_DIR,需要判断是否为"".#!/bin/shif [ ! -n "$LOG_DIR" ]; then echo 1else echo 2fi

2021-03-19 16:04:26 482

原创 TransTrack的阅读笔记+翻译

TransTrack: Multiple-Object Tracking with Transformer标志说明:红色的均为备注,蓝色为重点。摘要  多目标跟踪(MOT)主要由复杂的多步检测跟踪算法控制,该算法分别执行对象检测,特征提取和时间关联。 单对象跟踪(SOT)中的查询键(query-Key)机制通过前一帧的对象特征跟踪当前帧的对象,具有建立简单的联合检测和跟踪MOT范式的巨大潜力。 但是,由于查询键方法无法检测到新出现的对象,因此很少进行研究。sot的孪生难以监测新出现的对象,这就导致为什

2021-03-15 14:26:45 1444 2

原创 杀死僵尸进程

找到僵尸进程:(可以跳过)ps -aux |grep Z找到父进程pstree -p -s pid(僵尸进程的pid)删除父进程kill -9 父进程pid

2021-03-05 11:01:59 101 1

原创 PANDA数据格式

PANDA数据格式person.jsonjson中的一个key这个key也可以用作找图片的路径object list分支主题pos(姿态)####### standing####### walking####### sitting####### riding####### held(在襁褓中断婴儿)####### unsureridding  type####### bicycle rider####### motorcycle rider####### &nbsp

2021-02-23 18:25:53 1451

原创 linux的一些操作方法的记录

解压报错报错情况如图所示,网上有些人说是版本问题,但是file查询版本,显示至少1.0,Ubuntu自带的是3.0,理论上是完全ok的,但是就是一直报错,随后我用md5sum验证了一下md5,压缩包也没问题,最后改用7z就行了apt-get install p7zip7z x 压缩包名shell的语法mv、ln、cpfor do donewget...

2021-02-20 17:57:34 48

原创 pytorh-transformer

torch.nn.Transformertorch.nn.Transformer(d_model: int = 512, nhead: int = 8, num_encoder_layers: int = 6, num_decoder_layers: int = 6, dim_feedforward: int = 2048, dropout: float = 0.1, activation: str = 'relu', custom_encoder: Optional[Any] = None, custo

2021-02-05 17:35:02 235

原创 小猪猪的深度学习之路-4-函数的学习

torch.rsqrt(input, *, out=None) → Tensorpytorch的resnet的一个参数replace_stride_with_dilation 决定是否使用膨胀卷积pytorch的BatchNorm2dbatchnorma2d的公式为FrozenBatchNorm2d)就是将所有的参数进行固定,令bias与均值均为0,令权重与方差均为1IntermediateLayerGetter(model,return_layers)返回对应网络的所输出的结果如图所示:

2021-02-05 16:55:35 513

原创 小猪猪的深度学习之路-3-pytorch的一些参数的笔记

torch.flatten(start_dim, end_dim):默认是将一个tensor拉成一维,例如a.shape=[2,3,4,5,6],a.flatten().shape即为[23456] , a.flatten(2,4).shape即为[2,3,456]torch.nn.Transformertorch.nn.Transformer(d_model=512, nhead=8, num_encoder_layers=6, num_decoder_layers=6, dim_feedfo

2021-02-04 15:27:20 288

原创 小猪猪的深度学习之路-2-多显卡加载

DataParallelmodel=torch.nn.DataParallel(model,device_ids=显卡id)#显卡id格式为listmodel.to(torch.device(“cuda:0”)device = torch.device(“cuda:0” if torch.cuda.is_available() else “cpu”)inputs, labels = inputs.to(device), labels.to(device)optimizer = nn.DataPar

2021-02-04 14:49:52 146

原创 深度学习之路-1-数据集的加载

将标签与数据集进行封装(必须有__getitem__、len)__getitem__用于迭代出对象,__len__用于获取长度使用torch.utils.data.DataLoader进行读取torch.utils.data.DataLoader(dataset: torch.utils.data.dataset.Dataset[T_co], batch_size: Optional[int] = 1, shuffle: bool = False, sampler:Optional[torc

2021-02-04 14:47:39 306

原创 docker用于深度学习

docker用于深度学习docker安装nvidia-docker的安装docker加速选择镜像容器创建容器(创建不了自己根据报错百度解决)容器关闭与打开编辑Dockerfile#Dockerfile是一个简单的文本文件,其中包含有关如何构建映像的说明。构建与上传docker安装curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyunnvidia-docker的安装https://github.com/NVIDIA/nvid

2021-02-04 14:36:12 252

原创 为什么使用奇数卷积核?!

1.参考矩阵卷积的性质可知,矩阵卷积会以卷积核模块的一个部分为基准进行滑动,一般cnn中的卷积核是方形的,为了统一标准,会用卷积核模块中心为基准进行滑动,从被卷积矩阵第一个框按一定布长从左到右从上到下进行滑动,最后滑动到被积矩阵最后一块。所以卷积核一般为奇数,主要是方便以模块中心为标准进行滑动卷积。2.方便same padding的处理。如步长为1时,要补充k-1的zero padding才能使输出输出的尺寸一致,这时候如果核大小k是偶数,则需要补充奇数的zero padding,不能平均分到featur

2020-06-18 09:18:16 466

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除