自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 PID控制算法原理

控制算法——ntegral-erivative control比例-积分-微分控制器,顾名思义,由比例单元(roportional)、积分单元(ntegral)和微分单元(erivative)组成。

2024-03-03 23:14:45 391 1

原创 注意力机制attention理解(一)

灵感来源于人类视觉所特有的大脑信号处理机制:人类通过快速,获得需要,然后对这一区域投入更多注意力,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。人类视觉注意力机制极大地提高了视觉信息处理的。

2024-02-29 11:22:49 367

原创 Pytorch实现RNN循环神经网络

该图给出了RNN基本参数的含义。对于图片的识别,一张图片可以类比一个句子,都是一个二维向量,输入相同。关于RNN的理解说明,以下视频阐述的非常清晰明了。

2024-02-22 19:05:08 467 3

原创 集成学习——随机森林

就是基于的一种算法,简单来说就是三个臭皮匠顶个诸葛亮,它的基本决策单元(臭皮匠)是,当决策树多了就构成了一片森林。

2024-02-20 13:41:26 332

原创 补充知识 —— 数据增强

另一方面,数据的获取或许具有不均匀性,在某一类别上的样本可能过多或者过少。同时,某些图像样本稍微移动视角或改变位置,所识别的结果可能都不一样,数据增强可以拓展样本的多样性,增强网络泛化能力。一方面,在某些情况下训练数据的获取并不是一件容易的事情,而优秀的神经网络所需要训练的参数是十分巨大的,我们需要给到与其参数个数成比例的训练样本,过少的样本可能会引起过拟合。在线增强在网络模型内部实现小批次的数据扩充,可以使用GPU优化计算,适用于大规模训练集。几何变换是非常常见的一种数据增强的方法。

2024-01-27 15:52:57 355

原创 Pytorch实现CNN卷积神经网络

通过继承nn.Module父类来定义CNN子类,包含卷积层、池化层、全连接层结构和向前传播过程。在此我们将搭建一个具有两层卷积层的网络结构,卷积后使用relu激活函数进行激活,采用平均池化,两个全连接层分别包含256和128个神经元,最后的分类器包含10个神经元。# 定义网络结构# 定义第一个卷积层nn.Conv2d(in_channels=1, # 输入的图片 (1,28,28)out_channels=16, # 经过一个卷积层之后 (16,28,28)

2024-01-25 23:39:05 460 2

原创 强化学习DQN代码解析——自动驾驶

本次将介绍一下强化学习当中的DQN (Deep Q-Learning) 算法,并通过一个自动驾驶的案例(pytorch)来具体说明,代码如下,包含代码运行过程中会出现的一些错误的解决方法。

2023-10-20 00:06:10 1582 5

原创 PCA主成分分析方法解析

PCA (Principal Component Analysis) 主成分分析法,是一种非常常见的数据处理方法,其常用于高维数据的降维处理,以提取多维数据中的主要特征分量。例如,我们有一组n×m的矩阵,其中n代表样本个数,m则代表维度。一般所谓的三维数据,采用X、Y、Z三个坐标轴的刻度来记录一个样本点的信息,即该样本点与原点所代表的向量在三个正交基上的投影。那么m维数据所记录的即该向量在m维空间中对m个基向量的投影。我们现在的目的是将该n×m的矩阵降维成n×k的矩阵,以此降低信息量。

2023-09-27 20:52:24 807 1

原创 Pytorch入门(三)——数据预处理

回归中使用的数据是torch的32位浮点型;分类问题中的预测标签是64位有符号整型数据。

2023-07-15 14:25:34 207 1

原创 Pytorch入门(二)——torch.nn模块

torch.nn.Conv1d():1D卷积;torch.nn.ConvTranspose1d():1D转置卷积;torch.nn.Conv2d():2D卷积;torch.nn.ConvTranspose2d():2D转置卷积;torch.nn.Conv3d():3D卷积;torch.nn.ConvTranspose3d():3D转置卷积;torch.nn.Conv2d()输入张量的格式为(N,C,H,W),N为样本数;C为输入通道数;H和W为图片长宽。

2023-07-14 16:40:56 280 1

原创 Pytorch中的自动微分

注意:grad在反向传播过程中是累加的,每一次运行反向传播,梯度都会累加之前的梯度,所以一般在反向传播之前需把梯度清零。在torch中的torch.autograd模块中,我们可以设置参数requires_grad=True。它将开始追踪在该变量上的所有操作,后续通过链式法则进行梯度传播。完成计算后,可以调用.backward()是标量,则不需要为backward()来完成所有梯度计算。否则,需要传入一个与。的梯度将累积到.grad。

2023-07-13 22:08:13 120 1

原创 Pytorch入门(一)——张量

torch.set_default_tensor_type():设置默认的数据类型;.dtype:获取张量的数据类型;

2023-07-13 17:18:46 133 1

原创 matlab实现卷积神经网络CNN(二)——代码实现与解析

用来随机划分训练集、测试集和验证集,当然你也可以自行划分好后分别导入。总之,train_x、test_x和val_x数据格式应该分别为。

2023-05-23 14:51:30 8001 13

原创 matlab实现卷积神经网络CNN(一)——网络结构介绍

卷积神经网络(convolutional neural network)是具有局部连接、权重共享等特性的深层前馈神经网络,最早主要是用来处理图像信息。,这些特性使得卷积神经网络具有很好的特征提取能力,且参数更少。卷积神经网络一般由构成。

2023-05-22 19:58:07 6926 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除