自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 为什么我们在SLAM中需要李群、李代数

为什么我们在SLAM中需要李群、李代数SLAM中不需要李群、李代数,我说的。李群、李代数初现SLAM中不需要李群、李代数,我说的。作为一个数学专业却很惭愧没有学过李群的人,最近对《SLAM十四讲》进行了一些学习。截至动笔写该文位置,博主本人仍未好好研究过李群。所以,如果下文的观点、论证如果出现了错误,也请懂行的各位直接指出,对于错误的地方,博主一定会火速修改。回到本节题目,显而易见,我的观点就是SLAM不需要李群、李代数!至少,在高翔大大的书里前8章的内容并不需要他们(为什么?因为毕竟我才堪堪看完这么

2020-09-03 18:42:52 771

原创 torch.nn.init细节

torch.nn.init细节毕业论文进度0/50。大晚上挂着下骑砍2想顺便写论文的,内心太抗拒没办法,在这把以前看到的一些torch里的细节记录一下吧。Abstracttorch默认的卷积初始化针对的激活函是slope=5slope=\sqrt{5}slope=5​的leaky-relu,而不是relu。常见init的种类平时能用到的卷积的初始化一般涉及到两个名字:xavier,kai...

2020-03-31 03:31:31 326

原创 混合精度加速GPU计算:apex

混合精度加速GPU计算:apex在DistributedDataParallel的基础上,我们可以使用apex包来进行加速.只需要简单的两步即可:一,在model = torch.nn.DataParallel(model)之前通过apex来初始化model以及optimizerfrom apex import apmmodel, optimizer = amp.initialize(m...

2020-03-22 22:46:47 1347

原创 pytorch单机多卡:从DataParallel到distributedDataParallel

pytorch单机多卡:从DataParallel到distributedDataParallel最近想做的实验比较多,于是稍微学习了一下和pytorch相关的加速方式。本人之前一直在使用DataParalle

2020-03-22 04:09:44 14603 12

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除