- 博客(188)
- 资源 (14)
- 收藏
- 关注
原创 【问题解决】——pip安装软件出现“Missing dependencies for SOCKS support“
问题描述: Missing dependencies for SOCKS supportBaidu了很多方法都无法找到解决方案,后来用Google才在一个私人博客上找到解决方案,步骤如下解决方法1、删除两个代理 unset all_proxy unset ALL_PROXY2、然后在重新安装pysocks pip install pysocks3、最后在更新缓存 source ~/.bashrc...
2022-03-14 19:03:36 1860
原创 【Python】——偏函数partial
【Python】——偏函数partialpartial是Python的functools模块提供的函数,其主要作用是把一个函数的某些参数固定住(也就是设置默认值),返回一个新的函数,使得调用这个函数会更简单下面具体举例说明其用途 int( )函数可以把字符串转换为整数,同时可以通过设置base参数,指定由十进制向不同进制转换# 未指定base参数时,默认转换为十进制>>> int('12345')12345# 八进制>>> int('12
2022-02-01 18:22:32 1136
原创 【环境配置】——mayavi安装问题解决libX11和libGL
【环境配置】——mayavi安装问题解决问题描述:ImportError: libX11.so.6: cannot open shared object file: No such file or directory问题解决:apt install libx11-dev libxext-dev libxtst-dev libxrender-dev libxmu-dev libxmuu-dev问题描述:ImportError: libGL.so.1: cannot open shared ob
2022-01-26 17:28:31 666
原创 【docker】——Error response from daemon: conflict: unable to delete - image is referenced in multiple
问题错误描述Error response from daemon: conflict: unable to delete 827139e8dce4 (must be forced) - image is referenced in multiple repositories问题原因上述错误一般出现在我们使用docker rmi < image ID>时出现,问题原因如下:通过使用如下命令检查会发现docker images有多个不同名称的镜像使用同一个Image ID,此时我
2022-01-25 21:14:28 2616
原创 【pytorch】——torch.hub
【pytorch】——torch.hubFacebook官方博客表示,PyTorch Hub是一个简易API和工作流程,为复现研究提供了基本构建模块,包含预训练模型库。并且,PyTorch Hub还支持Colab,能与论文代码结合网站Papers With Code集成,用于更广泛的研究。发布首日已有18个模型“入驻”,获得英伟达官方力挺。而且Facebook还鼓励论文发布者把自己的模型发布到这里来,让PyTorch Hub越来越强大。torch.hubPyTorch Hub中提供的模型也支持Col
2022-01-25 11:29:17 1852
原创 【小坑记录】——RTX3060-RuntimeError: CUDA error: no kernel image is available for execution on the device
【小坑记录】——RTX3060-RuntimeError: CUDA error: no kernel image is available for execution on the device问题描述:NVIDIA GeForce RTX 3060 with CUDA capability sm_86 is not compatible with the current PyTorch installation.The current PyTorch install supports CUDA
2021-12-13 16:23:35 1927
原创 【pytorch】——torch.unique
【pytorch】——torch.unique官方文档torch.unique(input, sorted=True, return_inverse=False, return_counts=False, dim=None)默认参数说明input: 待处理Tensorsorted: 是否对处理后的不包含重复元素的Tensor进行升序排列(sorted=True表示进行升序排列,sorted=False并非表示降序排列,这点容易混淆,可以看下面例1)return_inverse: 是否返回待处
2021-12-13 10:54:41 5221
原创 【mmcv】——config配置文件的使用
配置Config 类用于操作配置文件,它支持从多种文件格式中加载配置,包括 python, json 和 yaml。它提供了类似字典对象的接口来获取和设置值。以配置文件 test.py 为例a = 1b = dict(b1=[0, 1, 2], b2=None)c = (1, 2)d = 'string'加载与使用配置文件>>> cfg = Config.fromfile('test.py')>>> print(cfg)>>> d
2021-11-15 20:04:05 3683
原创 【mmcv】——CNN
【mmdetection3d】——卷积神经网络我们为卷积神经网络提供了一些构建模块,包括层构建、模块组件和权重初始化。网络层的构建在运行实验时,我们可能需要尝试同属一种类型但不同配置的层,但又不希望每次都修改代码。于是我们提供一些层构建方法,可以从字典构建层,字典可以在配置文件中配置,也可以通过命令行参数指定。用法一个简单的例子:cfg = dict(type='Conv3d')layer = build_conv_layer(cfg, in_channels=3, out_channels=
2021-11-15 19:40:33 5828 5
原创 【mmdetection3d】——使用 dataset 装饰器自定义数据集
使用 dataset 装饰器自定义数据集MMDetection 也支持非常多的数据集包装器(wrapper)来混合数据集或在训练时修改数据集的分布。最近 MMDetection 支持如下三种数据集包装:RepeatDataset:将整个数据集简单地重复。ClassBalancedDataset:以类别均衡的方式重复数据集。ConcatDataset:合并数据集。重复数据集(Repeat dataset)使用 RepeatDataset 包装器来重复数据集。例如,假设原始数据集为 Datas
2021-11-12 13:25:24 4401 2
原创 【mmdetection3d】——注册器
class Registry: """A registry to map strings to classes. Registered object could be built from registry. Example: >>> MODELS = Registry('models') >>> @MODELS.register_module() >>> class ResNet
2021-11-11 22:45:41 1231
原创 【mmdetection3d】——常用工具
我们在 tools/ 文件夹路径下提供了许多有用的工具。日志分析给定一个训练的日志文件,您可以绘制出 loss/mAP 曲线。首先需要运行 pip install seaborn 安装依赖包。[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zIogAzf5-1636446617786)(…/resources/loss_curve.png)]python tools/analysis_tools/analyze_logs.py plot_curve [--keys ${
2021-11-09 16:30:52 1592
原创 【mmdetection3d】——使用已有模型在标准数据集上进行推理和训练
1: 使用已有模型在标准数据集上进行推理和训练使用已有模型进行推理这里我们提供了评测 SUNRGBD、ScanNet、KITTI 等多个数据集的测试脚本。请参考开始下的验证/样例来获取更容易集成到其它项目和基本样例的高级接口。在标准数据集上测试已有模型单显卡单节点多显卡多节点你可以通过以下命令来测试数据集:# 单块显卡测试python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} [--out ${RESULT_FILE}] [--e
2021-11-09 15:59:48 3575 3
原创 【mmdetection3d】——自定义运行时配置
教程 5: 自定义运行时配置自定义优化器设置自定义 PyTorch 支持的优化器我们已经支持使用所有 PyTorch 实现的优化器,且唯一需要修改的地方就是改变配置文件中的 optimizer 字段。举个例子,如果您想使用 ADAM (注意到这样可能会使性能大幅下降),您可以这样修改:optimizer = dict(type='Adam', lr=0.0003, weight_decay=0.0001)为了修改模型的学习率,用户只需要修改优化器配置中的 lr 字段。用户可以根据 PyTorc
2021-11-08 21:36:37 2284
原创 【mmdetection3d】——03自定义数据预处理流程
教程 3: 自定义数据预处理流程数据预处理流程的设计遵循一般惯例,我们使用 Dataset 和 DataLoader 来调用多个进程进行数据的加载。Dataset 将会返回与模型前向传播的参数所对应的数据项构成的字典。因为目标检测中的数据的尺寸可能无法保持一致(如点云中点的数量、真实标注框的尺寸等),我们在 MMCV 中引入一个 DataContainer 类型,来帮助收集和分发不同尺寸的数据。请参考此处获取更多细节。数据预处理流程和数据集之间是互相分离的两个部分,通常数据集定义了如何处理标注信息,而
2021-11-08 21:35:09 3523 2
原创 【mmdetection3d】——04自定义模型
教程 4: 自定义模型我们通常把模型的各个组成成分分成6种类型:编码器(encoder):包括 voxel layer、voxel encoder 和 middle encoder 等进入 backbone 前所使用的基于 voxel 的方法,如 HardVFE 和 PointPillarsScatter。骨干网络(backbone):通常采用 FCN 网络来提取特征图,如 ResNet 和 SECOND。颈部网络(neck):位于 backbones 和 heads 之间的组成模块,如 FPN
2021-11-08 20:40:44 2448
原创 【mmdetection3d】——学习配置文件
教程 1: 学习配置文件我们在配置文件中支持了继承和模块化来方便进行各种实验。如果需要检查配置文件,可以通过运行 python tools/misc/print_config.py /PATH/TO/CONFIG 来查看完整的配置。你也可以传入 --options xxx.yyy=zzz 参数来查看更新后的配置。配置文件结构在 config/_base_ 文件夹下有 4 个基本组件类型,分别是:数据集 (dataset),模型 (model),训练策略 (schedule) 和运行时的默认设置 (
2021-11-08 20:17:06 1896
原创 【mmdetection3d】——3D 目标检测 NuScenes 数据集
3D 目标检测 NuScenes 数据集本页提供了有关在 MMDetection3D 中使用 nuScenes 数据集的具体教程。准备之前您可以在这里下载 nuScenes 3D 检测数据并解压缩所有 zip 文件。像准备数据集的一般方法一样,建议将数据集根目录软链接到 $MMDETECTION3D/data。在我们处理之前,文件夹结构应按如下方式组织。mmdetection3d├── mmdet3d├── tools├── configs├── data│ ├── nuscene
2021-11-08 17:37:32 13623 14
原创 【mmdetection3d】——3D 目标检测 KITTI 数据集
3D 目标检测 KITTI 数据集本页提供了有关在 MMDetection3D 中使用 KITTI 数据集的具体教程。注意:此教程目前仅适用于基于雷达和多模态的 3D 目标检测的相关方法,与基于单目图像的 3D 目标检测相关的内容会在之后进行补充。数据准备您可以在这里下载 KITTI 3D 检测数据并解压缩所有 zip 文件。像准备数据集的一般方法一样,建议将数据集根目录链接到 $MMDETECTION3D/data。在我们处理之前,文件夹结构应按如下方式组织:mmdetection3d├─
2021-11-08 17:22:41 4980 2
原创 2021-10-25
青春人生有那么一首诗,往往是当你拥有它的时候,你没有读懂它,可是当你在读懂它的时候,它又离你远去了,这首诗就是青春青春是草长莺飞二月天,拂堤杨柳醉春烟的年华美好青春带着倚门回首,却把青梅嗅的甜蜜青春也会走过雾失楼台,月迷津渡的困惑但少年负壮气奋烈自有时,青春总会激荡出一身能擘两雕弧,虎骑千群只似无的力量张扬着大鹏一日同风起,扶摇直上九万里的义气愿君学长松,慎勿作桃李新时代,新舞台,让我们共矜然诺心,各负纵横志英雄英雄的本色是什么是雨打灯难灭,风吹色更名的坚韧顽强是一年三百六十日多是横
2021-10-25 19:21:37 239
原创 【面经总结】——C++篇
【面经总结】——C++篇1.C++ 程序的编译过程(源码如何转化成二进制)编译过程分为四个过程:编译(编译预处理、编译、优化),汇编,链接编译预处理:处理以 # 开头的指令编译、优化:将源码 .cpp 文件翻译成 .s 汇编代码汇编:将汇编代码 .s 翻译成机器指令 .o 文件链接:汇编程序生成的目标文件并不会立即执行,可能有源文件中的函数引用了另一个源文件中定义的符号或者调用了某个库文件中的函数。那链接的目的就是将这些目标文件连接成一个整体,从而生成可执行的程序 .exe 文件。链接分为
2021-10-21 22:22:39 238
转载 【Pytorch实现】——深入理解im2col(详细图解)
【Pytorch】——深入理解im2col(详细图解)转载链接1.im2col是将一个[C,H,W]矩阵变成一个[H,W]矩阵的一个方法,其原理是利用了行列式进行等价转换2.为什么要做im2col? 减少调用gemm的次数3.本次的代码只是为了方便理解im2col,不是用来做加速,所以代码写的很简单且没有做任何优化一、卷积的可视化例子是一个[1, 6, 6]的输入,卷积核是[1, 3, 3],stride等于1,padding等于0。那么卷积的过程可视化如下图,一共需要做16次卷积计算,每次卷积
2021-10-14 10:35:29 7737 6
原创 【Python】——dir()函数
【Python】——dir()函数描述dir() 函数不带参数时,返回当前范围内的变量、方法和定义的类型列表;带参数时,返回参数的属性、方法列表。如果参数包含方法__dir__(),该方法将被调用。如果参数不包含__dir__(),该方法将最大限度地收集参数信息。语法dir 语法:dir([object])参数说明:object -- 对象、变量、类型返回值返回模块的属性列表实例>>>dir() # 获得当前模块的属性列表['__builtins_
2021-10-13 23:02:14 565
原创 【计算机视觉】——全局平均池化代替全连接层,全连接层的作用?
【计算机视觉】——全局平均池化代替全连接层,全连接层的作用?一、参考链接如下:全连接层的作用是什么?为什么使用全局平均池化层?二、需要解决的问题如下:1.全连接层的作用是什么?全连接层的作用主要包含以下三点:全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。在实际使用中,全连接层可由卷积操作实现:
2021-10-10 11:27:18 6656 1
原创 【Pytorch实现】——summary
【Pytorch实现】——summaryKeras中有一个非常简介的API用来可视化model,这对debug我们的网络模型非常有用,下面介绍的就是Pytorch中的类似实现——summaryGithub链接pytorch-summary安装pip install torchsumary使用下面代码示例import torchimport torch.nn as nnimport torch.nn.functional as Ffrom torchsum
2021-10-08 22:41:00 1419 1
原创 【Pytorch实现】——LeNet网络
【Pytorch实现】——LeNet网络import torchfrom torch import nnfrom d2l import torch as d2l# 继承nn.Module类,实现__init__和forwardclass Reshape(nn.Module): def forward(self,x): # 将图片形状变成BxCxHxW return x.reshape(-1,1,28,28)# nn.Sequential可以包装任何继承nn.Module实
2021-10-08 22:23:56 127
原创 【Pytorch实现】——最大池化和平均池化
【Pytorch实现】——最大池化和平均池化import torchfrom torch import nndef pool2d(X, pool_size, mode='max'): # 获取池化层核的大小 p_h, p_w = pool_size # 计算经过最大池化后的特征图的大小 Y = torch.zeros((X.shape[0] - p_h + 1,X.shape[1] - p_w + 1)) # 行列遍历进行最大池化 for i in range(Y.shape
2021-10-08 15:51:38 2553
原创 【Pytorch实现】——nn.Sequential()
【Pytorch实现】——nn.Sequential()import torchimport torch.nn as nnclass MySequential(nn.Module): def __init__(self,*args): super().__init__() # 将args中的层存入有顺序的dict中 for block in args: self._modules[block] = block def forward(self,X):
2021-10-07 17:23:21 341
原创 【python】——Python中的*和**的作用和含义
Python中的 * 和 ** 的作用和含义python中的*和**被称为打包和解包参数,主要作用是能够让函数支持任意数量的参数,但是在函数定义和调用中,有着不同的使用场景,具体看下面的例子打包参数作为打包参数时,一般在函数形参定义时使用的作用:在调用函数时,将传给函数的所有位置的实参收集到一个元组中,并将该元组作为一个整体赋值给函数形参def func(*args): print(args)>>>func(1,2,3,4)(1,2,3,4)**的作用:在调用函数
2021-10-05 20:02:04 14566 8
原创 PyTorch 的 backward 为什么有一个 grad_variables 参数?
PyTorch 的 backward 为什么有一个 grad_variables 参数?知乎大佬讲得很清楚,参考如下链接PyTorch 的 backward 为什么有一个 grad_variables 参数?Tensor对Tensor求导是十分昂贵的,因此深度学习中将Tensor对Tensor的求导转化为标量对Tensor的导数即先求加权和,再使用加权和的结果进行反向传播求导数...
2021-10-03 22:12:09 118
原创 Pytorch中有多次backward时需要retain_graph参数
Pytorch中有多次backward时需要retain_graph参数背景介绍Pytorch中的机制是每次调用loss.backward()时都会free掉计算图中所有缓存的buffers,当模型中可能有多次backward()时,因为前一次调用backward()时已经释放掉了buffer,所以下一次调用时会因为buffers不存在而报错解决办法loss.backward(retain_graph=True)错误使用optimizer.zero_grad() 清空过往梯度;loss1.b
2021-10-03 16:43:09 1649
原创 Pytorch中x.data()与x.detach()的区别
Pytorch中x.data()与x.detach()的区别作用阻断梯度回传class TestDetach(nn.Module): def __init__(self, InDim, HiddenDim, OutDim): super().__init__() self.layer1 = nn.Linear(InDim, HiddenDim, False) self.layer2 = nn.Linear(HiddenDim, OutDim,
2021-10-03 16:20:50 2712
原创 Pytorch创建Tensor常用方法总结
Pytorch创建Tensor常用方法总结1.从numpy的ndarray或python的list创建torch.from_numpy(ndarray)torch.tensor(list)torch.Tensor(size)a = np.array([1,2,3])data = torch.from_numpy(a)print(data)"""输出:tensor([1, 2, 3], dtype=torch.int32)"""b = np.ones([2,3])data1 =
2021-10-03 15:22:07 1275
原创 Sparse Convolution & Submanifold Sparse Convolutional
论文阅读:Submanifold Sparse Convolutional Networks通俗易懂的解释Sparse Convolution过程
2021-09-30 11:22:58 276
原创 【贪心算法】【二分查找】【双指针】【二叉树】【深度优先】【广度优先】【动态规划】
69.Sqrt(x)牛顿迭代法34. 在排序数组中查找元素的第一个和最后一个位置使用二分法实现c++中的lower_bound(返回有序数组中第一个>=target的元素)和upper_bound函数(返回有序数组中第一个>target的元素),如果不存在时均返回end...
2021-09-24 09:34:29 385
原创 C++万能头文件——#include<bits/stdc++.h>
介绍#include<bits/stdc++.h>包含了目前c++所包含的所有头文件!!!!对比使用前:#include <iostream>#include <cstdio>#include <fstream>#include <algorithm>#include <cmath>#include <deque>#include <vector>#include <queue>
2021-09-22 16:20:03 1216
LeetCode 101 - A LeetCode Grinding Guide (C++ Version).pdf
2021-03-31
Autoware操作手册(全).zip
2020-08-30
预瞄+滑模变结构+模糊控制实现轨迹跟随,车道保持(carsim与simulink联合仿真).rar
2020-07-02
预瞄跟随(carsim与simulink联合仿真).rar
2020-07-02
Carsim与simulink联合仿真大合集(包含ACC,LKA,轨迹跟随横向控制,涉及预瞄跟随,模糊控制,滑模变结构算法的应用).rar
2020-04-13
预瞄跟随 单点预瞄 多点预瞄 车道保持 轨迹跟随 Carsim与simulink联合仿真.rar
2020-04-13
单点预瞄 Carsim与simulink联合仿真.rar
2020-03-26
基于模糊PID控制的智能汽车轨迹跟踪.rar
2020-03-26
预瞄控制 车道保持 轨迹跟随 Carsim与simulink联合仿真.rar
2020-03-26
差动驱动Carsim与simulink联合仿真.rar
2020-03-26
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人