自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 LayerNorm&BatchNorm

layernorm & batchnorm理解

2023-08-23 23:07:19 108

原创 Screen简单使用

Screen简单使用

2023-07-03 23:04:59 119 1

翻译 自动驾驶统一框架UniAD

论文地址:https://arxiv.org/pdf/2212.10156.pdf论文代码:https://github.com/OpenDriveLab/UniAD当前自动驾驶主要有两种模型训练方案:(1)一个任务一个模型,这种方法性能一般会更好,如Fig.(a)(2)多任务网络,通过共享backbone,添加多个预测头实现多个任务,这种方法会节省计算资源,如Fig.(b),但是可能会受到累积错误(我的理解是比如跟踪的稳定性与目标检测的准确性是有关系的)或者任务之间的干扰影响(任务与任务之间),因此作者

2023-06-22 16:27:16 557 1

原创 Markdown简单学习

markdown工具有很多,比如markdownPad, Typora,visual studio,Sublime Text等,还要很多小众的也很不错,而我常用VS studio,方便写代码直接记录。

2023-05-13 18:21:49 80

原创 旋转目标检测的坐标转换

旋转目标检测的坐标转换旋转目标检测离不开从常规矩形到旋转后的矩形之间的转换(可视化)做一个简单的记录,利用标注的矩形框信息和旋转角度信息做一个转换(本想给自己挖坑,想做个实验直接回归坐标点进行旋转目标检测,结果你知道的哈哈哈)原理很简单不多说,这里借用一张图使用的数据来自这里,数据不重要,格式对应就好,原始标签格式,:测试的代码(看核心部分就好):import cv2import osimport mathimport numpy as npimport pycocotools.co

2022-05-18 16:15:07 471

原创 Docker打包深度学习项目

Ubuntu如何用Docker打包深度学习项目?请看这里!docker就不用多介绍了吧,一来可以免去环境的配置,二来很多比赛都要求提交docker镜像Docker 安装:没什么好说的,参照官网:https://docs.docker.com/engine/install/ubuntu/sudo apt-get updatesudo apt-get install ca-certificates curl gnupg lsb-release添加GPG key:curl -fsSL https

2022-05-03 16:03:59 2539

原创 github用个人访问令牌上传仓库

github用个人访问令牌上传仓库github初始化一个repo都有一个上传指引之类的,就不说了正常来说,下面就是按照指引的流程:git initgit add .git commit -m "first commit"git branch -M main git remote add origin https://github.com/xxx/xxx.gitgit push -u origin main 但是在执行最后一条指令的时候:Username for 'https://gi

2022-04-26 20:14:17 1319

原创 预训练模型使用

预训练模型加载满足条件部分预训练模型的使用往往可以涨点,因此是一个非常常见的操作,当我们在改模型或者加载模型的某些层的参数时,并不能像常规那样直接加载进来,因此做一个记录。这里我是用YOLOX做实验# model = xxx(模型的初始化)model = exp.get_model()加载模型权重:ckpt = torch.load('xxx/xxx.pt', map_location="cpu")打印一下保存的pt是啥东西,因为YOLOX保存的pt包含model、ema等等,因此只看我们

2022-03-20 20:47:01 3865 2

原创 nn.Embedding()参数的理解

nn.Embedding()最近在学习transformers框架,在阅读代码的时候对nn.Embedding()不是很理解,于是做了点实验来帮助自己理解加深记忆。应该很浅显移易懂了。原来的代码是这样的:self.src_word_emb = nn.Embedding(n_src_vocab, d_word_vec, padding_idx=pad_idx)nn.Embedding()官网的定义可以参考:https://pytorch.org/docs/1.5.1/_modules/torch/

2021-02-27 22:34:11 6638

原创 dense_flow复现

最近做动作识别,得对视频提取光流,如果需要提取warp optical flow的话也可以,这个可以让视频减少视频背景对动作光流的影响,专注于前景运动,dense_flow源码地址https://github.com/yjxiong/dense_flow/tree/opencv-3.1环境1、Ubuntu16.042、CUDA9.03、CUDNN7.6.54、OpenCV3.4.10(opencv安装参考链接:https://blog.csdn.net/weixin_38257276/artic

2020-12-01 23:52:45 631 2

原创 Ubuntu16.04+CUDA9.0+Opencv3.4.10(带cuda编译)

最近在搞视频动作识别和时序定位,在TSN中作者提到用warp optical flow可以减少背景的运动带来的影响,更加专注前景目标的运动,为了加快处理的速度,所以决定用带cuda编译的opencv来处理原始始视频数据来提取dense_flow,不然凭我这四年前的飞行堡垒,简直怀疑人生,dense_flow可以看这里https://github.com/yjxiong/dense_flow/tree/opencv-3.1言归正传,直接进入主题环境1、Ubuntu16.042、CUDA9.03、CU

2020-12-01 14:57:57 720

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除