- 博客(21)
- 收藏
- 关注
原创 KITTI数据集迅雷快速下载
点击下载:https://s3.eu-central-1.amazonaws.com/avg-kitti/data_object_velodyne.zip。:点击下载:https://s3.eu-central-1.amazonaws.com/avg-kitti/data_object_image_2.zip。:点击下载:https://s3.eu-central-1.amazonaws.com/avg-kitti/data_object_label_2.zip。
2023-08-19 16:24:25
1354
原创 online training 和offline training 在深度学习中什么意思?
online training(在线学习)只拿部分数据训练、offline training(离线学习)拿全部数据进行训练。
2023-04-02 11:26:56
1265
原创 ubuntu文件权限修改
当我们在执行或修改某个ubuntu下的目录时,他们显示无法修改,这就说明了该目录的权限被设置了,(设置了模式,且还需要该文章是ubuntu文件权限的修改分为两种方式:第一种方法最简单粗暴的方法,第二种方法就只针对自己需要对目录添加“可写”、“可执行”等权限。
2023-03-20 11:01:09
21868
1
原创 Nvidia显卡驱动历史版本!
目前,有两种查找第版本的方法,第一种就是网上常见的在Nvidia官网下,按f12然后加上一段命令,但是该方法对我而言是没有用的,所以我在这里找到了第二种方法就是直接找到了Nvidia所有版本的一个网站,该网站支持各种Nvidia型号和各种版本的驱动,自己找到对应的Nvidia型号和驱动版本进行下载。安装低版本的cuda可能需要将自己的显卡驱动降到对应低版本,但是Nvidia官网都是给出的最新版本的显卡驱动。
2023-03-09 11:10:11
11620
原创 BN和Dropout在训练和测试时的差别
假设失活概率为 p ,就是这一层中的每个神经元都有p的概率失活,如下图的三层网络结构中,如果失活概率为0.5,则平均每一次训练有3个神经元失活,所以输出层每个神经元只有3个输入,而实际测试时是不会有dropout的,输出层每个神经元都有6个输入,这样在训练和测试时,输出层每个神经元的输入和的期望会有量级上的差异。对于BN,是对每一批数据进行归一化到一个相同的分布,而每一批数据的均值和方差会有一定的差别,而不是用固定的值,这个差别实际上也能够增加模型的鲁棒性,也会在一定程度上减少过拟合。
2023-03-05 19:55:56
212
原创 pytorch中BatchNorm1d、BatchNorm2d、BatchNorm3d
对小批量(mini-batch)的2d或3d输入进行批标准化(Batch Normalization)操作在每一个小批量(mini-batch)数据中,计算输入各个维度的均值和标准差。gamma与beta是可学习的大小为C的参数向量(C为输入大小)在训练时,该层计算每次输入的均值与方差,并进行移动平均。移动平均默认的动量值为0.1。在验证时,训练求得的均值/方差将用于标准化验证数据。
2022-11-08 10:42:37
330
转载 MMDetection框架入门教程(一):Anaconda3下的安装教程(mmdet+mmdet3d)
MMDetection是MMLab家族的一员,是由香港中文大学和商汤科技共同推出的,以一个统一的架构支撑了15个大方向的研究领域。,因此安装之前需要先安装这两个库。
2022-10-26 16:29:08
1458
转载 Windows环境下使用wget的详细操作步骤(zip压缩包+环境配置)【超详细】
点击这里也可以直接在浏览器输入https://eternallybored.org/misc/wget/releases/wget-1.20.3-win64.zip并回车。我解压到D:\MyFile\Tool\wget-1.20.3-win64这里了。
2022-10-25 21:57:50
2584
转载 Shared MLP的作用是什么?
网络首先将点云看成一幅Nx3的单通道图片输入,然后通过1x3x1的卷积核将这幅点云的宽度变为1。对应到右侧的神经元结构图,就是将3个输入神经元的信息整合后传到下层神经元的过程,64个神经元对应64个卷积核。Shared MLP 是点云处理网络中的一种说法,强调对点云中的每一个点都采取相同的操作。其本质上与普通MLP没什么不同,其在网络中的作用即为MLP的作用:特征转换、特征提取。MLP是多层感知机的缩写,在三维点云处理网络中经常能看到一层Shared MLP,下面是我关于其作用的分析。
2022-09-26 11:24:58
2447
1
原创 CNN入门讲解(全部内容)
转载:https://zhuanlan.zhihu.com/p/30404850转载:https://zhuanlan.zhihu.com/p/30854084转载:https://zhuanlan.zhihu.com/p/30994790转载:https://zhuanlan.zhihu.com/p/31249821转载:https://zhuanlan.zhihu.com/p/31657315转载:https://zhuanlan.zhihu.com/p/32299939转载:https://zhuan
2022-08-23 21:58:43
563
转载 epoch如何设置_最易懂的方式介绍 神经网络模型中的Epoch、Iteration、Batchsize
相对于正常数据集,如果Batch_Size过小,训练数据就会非常难收敛,从而导致欠拟合。例如,上例中需要迭代十次,首先,所有的参数会有一个初始值,第一次迭代过后,模型中的参数会得到一批新值,这一批参数值就作为第二次迭代的输入,通过第二次迭代得到一批优化了一些的参数值,这些参数值将作为第三次迭代的输入……一般在神经网络中传递全部的数据集一次是不够的,我们需要将全部的数据集在同样的神经网络中传递多次,比如2万次,这个次数也需要训练,epoch的次数过多,容易造成过拟合,次数过少,容易使训练的参数达不到最优。
2022-08-23 21:44:39
6653
原创 anaconda+pycharm+pytorch-gpu安装(Windows)
转载:https://www.cnblogs.com/zhangkanghui/p/10756630.html
2022-08-23 21:42:43
87
转载 Windows + Linux 双系统的安装
转载:https://blog.csdn.net/fanxueya1322/article/details/90205143转载:https://blog.csdn.net/qq_44905590/article/details/105292663
2022-08-23 21:40:29
70
转载 FCN的学习及理解(Fully Convolutional Networks for Semantic Segmentation)
与经典的CNN在卷积层使用全连接层得到固定长度的特征向量进行分类不同,FCN可以接受任意尺寸的输入图像,采用反卷积层对最后一个卷基层的特征图(feature map)进行上采样,使它恢复到输入图像相同的尺寸,从而可以对每一个像素都产生一个预测,同时保留了原始输入图像中的空间信息,最后奇偶在上采样的特征图进行像素的分类。如下图所示,在传统的CNN结构中,前5层是卷积层,第6层和第7层分别是一个长度为4096的一维向量,第8层是长度为1000的一维向量,分别对应1000个类别的概率。虚线上半部分为全卷积网络。
2022-08-22 16:20:19
166
转载 理解deconvolution(反卷积、转置卷积)概念原理和计算公式、up-sampling(上采样)的几种方式、dilated convolution(空洞卷积)的原理理解和公式计算
deconv和conv的区别在于在进行网络的前向传播和反向传播计算的时候作相反的计算。
2022-08-22 15:48:06
1618
转载 卷积核(kernel)和过滤器(filter)的区别
但是我也在许多博客中看到许多人直接用卷积核代表过滤器,在多通道情况下,卷积核就是三维的表示,除了宽、高之外,还增加了深度——卷积核的个数。一般情况下,过滤器的概念应当应用在多通道的情况下,因为在多通道情况下,我们没办法说一个卷积操作就能够产生一个特征图,于是有了过滤器这个概念,便于描述这种情况。(这个是我的猜测,哈哈哈哈)图2就是对一个单通道的图片做卷积操作,卷积核的大小是 3 × 3 ,卷积核的数目为1,最终得到1个特征图。上面的操作是对三个通道分别做卷积操作,然后将卷积的结果相加,最后输出一个特征图。
2022-08-19 15:27:58
1324
转载 理解卷积神经网络CNN中的特征图 feature map
在每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起,其中每一个称为一个feature map。在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿蓝)。层与层之间会有若干个卷积核(kernel),上一层和每个feature map跟每个卷积核做卷积,都会产生下一层的一个feature map。
2022-08-19 15:18:50
574
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人