自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

原创 kitti数据集下载

kitti

2023-01-01 17:19:04 9016 4

原创 训练VainF/DeepLabV3Plus-Pytorch

使用VainF/deeplabv3plus

2022-12-13 13:06:29 791 1

原创 自行装机配置

自行装机

2022-08-23 19:08:13 732

原创 实时语义分割的一些记录

python3 cv_bridge

2022-07-20 14:40:37 832

原创 ImportError: No module named builtins

anaconda

2022-06-27 18:26:57 817

原创 运行kitti里的数据集(用kitti2bag将.bin转成.bag)

kitti2bag

2022-06-23 13:46:41 1344

原创 ROS学习笔记

ROS学习笔记

2022-06-20 17:04:29 172

原创 关于A-loam的运行及安装

a-loam运行

2022-06-11 17:44:59 539

原创 激光SLAM、视觉SLAM

slam算法

2022-06-09 11:00:21 207

原创 avg = nn.AdaptiveAvgPool2d(1) 和 torch.mean

import torchimport torch.nn as nna = torch.rand(2,3,4,4)nn.AdaptiveAvgPool2d(1),就是将各4*4的矩阵变成1*1.torch.mean:可以理解为,对哪一维做平均,就是将该维所有的数做平均,压扁成1层(实际上这一层就给合并掉了),而其他维的形状不影响。nn.AdaptiveAvgPool2d(1),就是将各4*4的矩阵变成1*1.avg = nn.AdaptiveAvgPool2d(1)(a).

2022-05-25 14:01:11 1703 1

原创 windows下的./ 和 ../

"./":代表目前所在的目录。" . ./"代表上一层目录。"/":代表根目录。import osjjpath = "./world"if not os.path.exists(jjpath): os.makedirs(jjpath)会在本文件当前位置创建名为world的文件夹import osjjpath = "../world"if not os.path.exists(jjpath): os.makedirs(jjpath)会在本文...

2022-05-24 16:34:26 1643

原创 单通道图片

import torchimport randomimport numpy as npimport osimport matplotlib.pyplot as pltfrom PIL import Imageimge = np.random.randint(0,256,size=(20,10))#最小的那个数字0表示为黑,最大的那个数字256表示为白# image = np.random.randint(0,256,size=(20,10,3))plt.imshow(imge,cmap=.

2022-05-18 10:48:52 593 1

原创 学习率下降---cos

import mathfrom torch.utils.tensorboard import SummaryWriterdef yolox_warm_cos_lr(lr, min_lr, total_iters, warmup_total_iters, warmup_lr_start, no_aug_iter, iters): # 1e-4 1e-6 100 3 1e-5 .

2022-05-16 11:03:01 1320 1

原创 dataloader的长度

数据集/batchsize比如数据集共有10582张图片,batchsize设为26。那么len(dataloader) = 10582/26=407

2022-05-14 21:00:23 2854 1

原创 关于生成图片

数组生成图片image = Image.fromarray(np.uint8(arr))#arr的shape必须是3在后面,比如(375,500,3)tensor生成图片trans = transforms.ToPILImage()image = trans(tensor)#tensor的shape须是3在后面,比如(3,375,500),而且就应该是三维的#如果给的是四维的tensor,会报错 pic should be 2/3 dimensional. Got 4 di

2022-05-14 20:11:02 2331 1

原创 关于tensorboard使用的注意事项

1、这个.py文件不要命名为tensorbord.py。2、使用代码tensorboard --logdir=logaaa --port=10086(自定义,防止和别人冲突)前,要cd到对应的目录下,logaaa文件夹的上级目录当中。

2022-05-13 15:54:06 181

原创 图像 -----> array与tensor的不同

#image的size为(w,h)即(w = 1000,h = 500)img_arr = np.asarray(image) #将image转换成arrayimg_tesnor = trans(image) #image转换成tensor,其中函数trans自定义的。测试可知,image在array中表示为(H,W,C)在tensor中表示为(C,H,W)...

2022-05-08 17:29:24 1163

原创 python控制台

2022-05-07 10:04:13 726

原创 pytorch笔记

PIL :PIL.JpegImageFile类型 Image.open(img_path)tensor :tensor类型 transforms.ToTensor(img)narrays :numpy.ndarry类型 cv2.imread(img_path) 或者 np.array(img)

2022-05-02 23:52:14 968

原创 cat、stack的理解

···for example,在两个tensor中,除了要cat的dim位置的数字可以不一致外,其他位置的数字必须一样。例如一个老师记录了 4个班级、32个学生、8门课程 【4,32,8】,记a1另一个老师记录了5个班级、32个学生、8门课程 【5,32,8】,记a2用torch.cat([a1,a2],dim=0) ,则为【9,32,8】stack和cat不同的是,会创建一个新的维度,而且要各tensor的shape和size要一样例如一个老师记录了 一个班级、32个学生、8门..

2022-04-28 00:17:56 554 1

原创 3*3卷积核优势

https://www.bilibili.com/video/BV1LT4y1v7CM?p=3232P最外面的那个3是指三次的卷积操作才走到最后,也是指3个不同的3*3卷积核

2022-04-27 19:18:03 2111

原创 pytorch 安装

conda create -n pytorch python=3.6conda install pytorch==1.10.0 torchvision==0.11.0 torchaudio==0.10.0 cudatoolkit=11.3

2022-04-22 14:05:29 2708

原创 VOC数据集分类

名字类=["背景","飞机","自行车","鸟","船","瓶子","巴士","汽车","猫","椅子","牛","餐桌","狗","马","摩托车","人","盆栽","绵羊","沙发","火车","电视监视器"]

2022-04-21 15:45:20 1264

原创 下载源地址

-i https://pypi.douban.com/simple-i https://pypi.tuna.tsinghua.edu.cn/simple

2022-04-17 18:36:41 1183

原创 下载Microsoft visual studio code 很慢很慢

https://az764295.vo.msecnd.net/stable/dfd34e8260c270da74b5c2d86d61aee4b6d56977/VSCodeUserSetup-x64-1.66.2.exe把下载链接换成上面这个

2022-04-14 16:47:09 162

原创 深度学习中batch、epoch、 iteration和batch size理解

(1)batch:将数据集分成几个 batch,每一个batch数据的数量就是[batch size],在一个 epoch 中,batch 数和迭代数是相等的。(2)batch size:批大小。一个 batch 中样本总数。在DL中,一般采用SGD训练,即每次训练在训练集中取batch size个样本训练;(3)iteration:1个iteration等于使用batch size个样本训练一次;(4)epoch:1个epoch等于使用训练集中的全部样本训练一次;举个例子,训练集有1000个

2022-04-13 15:22:20 1666 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除