- 博客(33)
- 收藏
- 关注
原创 双目摄像头标定
这将生成一个 `stereo_camera_info.yaml` 文件,包含了双目相机的标定参数。- `image:=/stereo/left/image_raw`: 左摄像头的图像话题。- `--square 0.108`: 标定板上每个方格的边长(单位:米)- `--size 8x6`: 标定板的尺寸,这里使用 8x6 个角点。- `camera:=/stereo/right`: 右摄像头的话题。- `camera:=/stereo/left`: 左摄像头的话题。4. 将双目摄像头连接到电脑上。
2024-05-26 10:14:53 525
原创 时间序列数据平稳性检验与随机性分析
理解时间序列存在的不平稳性,掌握对时间序列平稳性检验的步骤和各种检测方法,认识利用不平稳的序列进行建模所造成的影响。理解时间序列的随机性,掌握时间序列随机性的判断方法。
2024-03-05 15:31:27 544 3
原创 SLAM初学
例如,对于二维空间中的点,可以先选择x轴或y轴作为划分维度,然后根据该维度上的值将数据点划分为左子树和右子树。它由许多相互连接的三角形组成,每个三角形由三个顶点和三条边组成,三角形网格是一种离散化的表示方法,通过将三维表面划分为许多小的三角形来近似实际的曲面或物体。对于给定的点集,图切图的边界由相邻点之间的垂直平分线组成。对于每个观测到的深度图像或点云,TSDF方法将其中的点投影到体素格子中,并根据点的深度信息更新对应体素格子的距离值。是一种常用的曲面重建方法,用于从离散的点云数据中重建连续的曲面模型。
2024-01-26 00:02:44 898
原创 基于双向LSTM模型完成文本分类任务
是一份关于电影评论的经典二分类数据集.IMDB 按照评分的高低筛选出了积极评论和消极评论,如果评分 ≥7≥7,则认为是积极评论;如果评分 ≤4≤4,则认为是消极评论.数据集包含训练集和测试集数据,数量各为 25000 条,每条数据都是一段用户关于某个电影的真实评价,以及观众对这个电影的情感倾向,其目录结构如下所示。原始训练集和测试集数据分别25000条,本节将原始的测试集平均分为两份,分别作为验证集和测试集,存放于。1、一开始运行代码遇见了一些错误,我看不懂。期末复习太紧张了,直接附上全部代码。
2024-01-04 15:07:53 442
原创 前馈神经网络复习
习题4-1 对于一个(wx + b),并使用梯度下降优化参数w时如果输入x 恒大于0,其收敛速度会比零均值化的输入更慢在全连接网络模型中,将输入的x值进行零均值化是一种方法,旨在将训练集中的每个输入值x减去其均值,以0为中心,满足均值为0。这样做的优点是,避免Z型更新的情况,从而加快神经网络的收敛速度。零均值化,数据分布会距离零比较近,而激活函数在0附近的梯度比较大,这样收敛的快,此外,输入恒大于0,可能会引起抖动,反而不利于收敛。
2023-12-31 12:56:08 474
原创 优化算法3D可视化
1、第一个实验,就出师未捷身先死,用的同学的代码复现打算,结果一直只有第一张图,第二张图片出不来,左一那样,我看了看代码,感觉没啥毛病,于是,我按照我自己的想法开始改,结果两张图出是出来了,就是出现在一张图上,而且第二个函数的图还有点怪怪的,我瞅着代码上看没啥毛病,我猜测是因为度量衡的问题,于是,我又把两张图分开看,就长最下面那样,嘿,成了!原因就是,我一开始就用来一个画布,后面加了一个画布就好了# ... (不变)# 数值初始化# 将x,y,z三个数据传入,绘制三维图像。
2023-12-30 14:52:47 2566
原创 LSTM的记忆能力实验
1、多组训练时候报错了,检查是因为函数应该返回三个值,但实际上只返回了两个,所以做实验时,不要看到可以导入的直接无脑导入,要具体情况具体分析。
2023-12-26 23:52:23 2253
原创 优化算法2D可视化
x = x_initall_x = []可视化函数"""初始化可视化类"""# 只画出参数x1和x2在区间[-5, 5]的曲线部分"""可视化参数更新轨迹""""""训练模型并可视化参数更新轨迹"""# 设置x的初始值print(x)# 展示x1、x2的更新轨迹模型训练与可视化2D可视化实验"""RMSprop优化器初始化输入:- init_lr:初始学习率- model:模型,model.params存储模型参数值- beta:衰减率。
2023-12-23 19:10:03 964
原创 LSTM ——作业
1、推导还是那样先把流程中用到的所有式子写出来,然后倒着找相关的往后推导2、代码看的熬夜患者的,跟着打了一遍,其实第二个第三个很相似,3使用了封装的nn.LSTM来定义和计算LSTM模型的前向传播,而2代码使用nn.LSTMCell来手动计算LSTM的前向传播。DL Homework 11-CSDN博客【23-24 秋学期】NNDL 作业11 LSTM-CSDN博客。
2023-12-17 18:08:19 514
原创 循环神经网络(1)循环神经网络的记忆能力实验
循环神经网络(Recurrent Neural Network,RNN)是一类具有短期记忆能力的神经网络.在循环神经网络中,神经元不但可以接受其他神经元的信息,也可以接受自身的信息,形成具有环路的网络结构.和前馈神经网络相比,循环神经网络更加符合生物神经网络的结构.目前,循环神经网络已经被广泛应用在语音识别、语言模型以及自然语言生成等任务上.本章内容基于《神经网络与深度学习》第6章:循环神经网络的相关内容进行设计。
2023-12-11 17:58:38 1126 1
原创 NNDL 作业10 BPTT
relu函数的导数在正数部分是恒等于1的,因此在深层网络中使用relu激活函数就不会导致梯度消失和爆炸的问题。1、学习这东西果然是孰能生巧,推导第一个题时候,还在认认真真的做,第二个和第三个题发现完全可以类比过去,就最后一个偏导不一样,所以直接将这钱的式子略加修改即可。2、卷积神经网络和RNN的不同之处就是,卷积神经并不权重共享,每一层的参数都是不一样的,而RNN是权重共享的。挺好奇门控循环单元的,就看到我室友呕心沥血的巨作,我拜读一下,大呼牛逼!3、代码又是看上一届的,不过要自己过一遍,不能囫囵吞枣。
2023-12-10 16:56:16 916 2
原创 使用预训练resnet18实现CIFAR-10分类
CIFAR-10数据集包含了10种不同的类别、共60,000张图像,其中每个类别的图像都是6000张,图像大小均为32×3232×32像素。CIFAR-10数据集的示例如图5.15所示。图5.15:CIFAR-10数据集示例。
2023-12-05 23:42:37 2823 4
原创 RNN - SRN
nn.RNNCell 是循环神经网络(RNN)中的一个时间步(time-step),代表处理单个输入的循环单元。通常在循环中使用,逐个时间步处理序列。可以用于手动控制循环计算的流程。初始化参数包括输入大小、隐藏大小以及可选的非线性激活函数。输入大小 = 10隐藏大小 = 20rnn_cell = nn.RNNCell(输入大小, 隐藏大小)nn.RNN:nn.RNN 是一个更高层次的抽象,用于处理整个序列。它在内部使用 nn.RNNCell 在每个时间步上进行循环计算。
2023-12-02 18:23:38 1019 1
原创 基于ResNet实现手写体数字识别实验
1、transforms.Compose([transforms.Resize(32),transforms.ToTensor(),transforms.Normalize(mean=[0.5], std=[0.5])]):这个语句创建了一个预处理管道,它首先调整图像大小为32x32,然后将图像转换为torch.Tensor,并归一化这个Tensor2、ResNet18的基本含义是,网络的基本架构是ResNet,网络的深度是18层。但是这里的网络深度指的是网络的权重层,也就是包括池化,激活,线性层。
2023-11-27 21:29:55 1340 1
原创 卷积 导数 反向传播
1、有一些知识课上开小差没学会,做课后作业可以看到不足,增长知识2、推导尽量参数写好看点,要不然自己都看乱了,容易出错XU-1V-12V-2%29%7DXWXW。
2023-11-26 13:37:23 981 1
原创 实验十 卷积神经网络(1)
def __init__(self, kernel_size, weight_attr=torch.tensor([[0., 1.], [2., 3.]])): # 类初始化,初始化权重属性为默认值,weight_attr为卷积核super(Conv2D, self).__init__() # 继承torch.nn.Module中的Conv2D卷积算子# 随机构造一个二维输入矩阵2、自定义带步长和零填充的二维卷积算子# 步长# 零填充# 零填充# 创建卷积核# 创建偏置。
2023-11-14 21:12:20 74 1
原创 NNDL 作业7 基于CNN的XO识别
1、ToTenser可以进行图片的归一化,图片进行归一化后归一化通过将数据归一化到较小的范围内,可以减小这种限制,使得梯度更容易传播,加速模型的收敛过程。归一化可以降低模型对输入数据的依赖性,使得模型对输入数据的微小变化具有更好的鲁棒性。这样可以减少模型的过拟合风险,提升模型的泛化能力。2、在CNN中首先,输入x经过卷积层conv1进行卷积操作,然后通过ReLU激活函数进行非线性变换,再经过池化层pool进行降采样。接着,输出经过卷积层conv2和ReLU激活函数,再次经过池化层pool进行降采样。
2023-11-13 12:54:15 206 1
原创 NNDL 作业6 卷积
1、这次实验,也是处理图像,在数字图像处理实验中,用的matlab,需要将图片先转换成灰色来提高计算准确率和速度,这次是python,我尝试不转,然后我就得到了彩色图像经过卷积操作后,并不会直接变成绿色。卷积是一种在图像处理中常用的操作,它通过使用一个滤波器(也称为卷积核)来改变图像的特定特征。滤波器可以进行边缘检测、模糊等处理。卷积操作通常在每个像素上进行,并将其与周围像素进行计算。对于彩色图像,这个操作会分别应用到每个颜色通道上(如红色、绿色和蓝色)。
2023-11-05 10:45:22 92 1
原创 NNDL 作业五
对于隐藏层到隐藏层之间的连接,权重矩阵大小为1 × 1,偏置向量大小为1。而正则化的目的是为了防止过拟合,它是通过惩罚模型参数的大小来降低模型复杂度,但是对偏置项进行正则化可能会影响到模型学习的能力,所以不用对b进行正则化。通过引入随机性,可以使得模型在不同的初始状态下探索不同的参数空间,有助于更快找到合适的参数组合,并加快收敛速度。第一个隐藏层到最后一个隐藏层之间的参数数量(如果存在多个隐藏层):每个隐藏层之间的权重矩阵大小都为 1 × 1。所以,输入层到第一个隐藏层之间的参数数量为 Mo + 1。
2023-10-28 20:43:55 136
原创 NNDL 作业四
numpy算法与 pytorch算法运行出来的结果相同,但是 PyTorch算法的张量运算很方便,而且 PyTorch通过使用 backward ()函数进行自动求导,能够很容易地求解出梯度值。但是numpy不可以,需要手动计算梯度。Sigmoid函数:在PyTorch中,我们可以使用函数来计算任意张量的Sigmoid函数值。
2023-10-16 20:47:59 69 1
原创 NNDL 作业二
(1)损失函数是一个用来量化模型预测和真实标签之间的差异的非负实数函数。其中,平方损失函数经常用在预测标签y为实数值的任务中,一般不适用于分类问题。平方损失函数公式,y为真实值,yi为预测值:(2)交叉熵函数是是用来评估当前训练得到的概率分布与真实分布的差异情况,减少交叉熵损失就是在提高模型的预测准确率。其离散函数形式。
2023-09-24 17:31:27 107 6
原创 NNDL 作业一
我认为人工智能是实现机器的智能化,是模拟、延伸和扩展人的智能理论。计算机可以像人一样去学习,比如通过学习大量的数据,可以自主写诗歌、下象棋等。通过了解发现,人工智能目前分为两个派别,一种是强人工智能,这种人工智能是具有独立意识的,可以像人一样去思考。另一种是若人工智能,是具有特定功能的人工智能,我认为人工智能不能具有独立的意识,人工智能一旦拥有自主意识,很可能会修改自己的程序设定,可能危及人类安全。人工智能的长期目标是实现人类水平的机器智能化。2、
2023-09-20 21:20:13 114 8
原创 深度学习—实验二 练习张量
在深度学习框架中,数据经常用张量(Tensor)的形式来存储。张量是矩阵的扩展与延伸,可以认为是高阶的矩阵。1阶张量为向量,2阶张量为矩阵。如果你对Numpy熟悉,那么张量是类似于Numpy的多维数组(ndarray)的概念,可以具有任意多的维度。张量的大小可以用形状(shape)来描述。比如一个三维张量的形状是 [2,2,5][2,2,5],表示每一维(也称为轴(axis))的元素的数量,即第0轴上元素数量是2,第1轴上元素数量是2,第2轴上的元素数量为5。图1.5给出了3种纬度的张量可视化表示。
2023-09-20 14:52:30 301 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人