自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(22)
  • 收藏
  • 关注

原创 使用aliyun创建springboot项目出现unknown的解决办法

在Spring initializr中因为不能正常的使用https://start.spring.io网址,转而使用许多博客中提供的https://start.aliyun.com/的服务器URL快速创建springboot项目后,发现创建的结果异常,出现以下图中的现象。将https://start.aliyun.com/换成https://start.aliyun.com,即把最后的/去掉。

2023-12-29 21:55:25 450

原创 mmseg potsdam训练集的准备

按照mmseg的文档,我们只需要下载 ‘2_Ortho_RGB.zip’ 和 ‘5_Labels_all_noBoundary.zip’。随后按照mmseg官方提供的命令运行即可。打开数据处理的python文件,这里可以发现,这个转换的文件里面会把你指定目录下的所有zip压缩包都进行处理并把图像和标签添加到数据集中。到这里你可能会认为,每个压缩包的名字都不一样,即使下载了多余的压缩包数据,应该也不会出现错误吧。这个操作会导致后面一系列的问题,可能你会认为是学习率的问题、又或者是哪里出现了bug等等等。

2023-12-25 17:02:13 487

原创 Linux通过文件名查找对应文件路径

当我们使用Linux时,有时候只记住了文件名,但是我们更想知道它对应的路径,这时候就可以通过find命令进行查找。

2023-12-25 14:57:28 795

原创 anaconda中如何查看.condarc配置文件

最近在配置环境,用到了conda安装各种包。一次不小心添加了一个错误的镜像网址,导致下载包出现错误,所以需要将.condarc中的错误镜像删除。实验适用在Linux操作系统中1.首先在终端输入conda infoconda info像下面这样然后你会看到以下的信息:红色框中即为我们需要的信息,即.condarc文件的位置,但是我们正常打开是看不到的,因为这是一个隐藏文件。

2023-11-30 16:28:51 895

原创 ECANet中的轻量级注意力模块

Excitation部分则与SE模块不同,将两个全连接提取特征的部分替换成了一维卷积,作者的经验表明避免降维对于学习通道注意力非常重要,适当的跨信道交互可以在显著降低模型复杂度的同时保持性能。在经过这两个部分后,再对结果使用激活函数,得到通道注意力权重,再将其与原输入相乘(即对通道进行加权)得到最终的结果。Squeeze部分与SE模块相同,采用的自适应下采样,将通道方向矩阵的大小自适应的缩小到1×1的大小。ECA模块是在SE模块的基础上改进而来,同样的具有Squeeze和Excitation两部分。

2023-09-20 23:25:28 79 1

原创 SENet中SE通道注意力模块

对Squeeze后的结果进行两次全连接,第一次降低通道的数量[c2/16, 1, 1],第二次又恢复到原来的大小[c2, 1, 1],再经过一个Sigmoid激活函数,得到通道方向的注意力分数[c2, 1, 1]对输入X进行降维,输入X原来的维度是[c2, h, w],降维后变成[c2, 1, 1],这里是使用了全局平均池化操作,将通道方向的每个矩阵通过池化变成一个实数。我们将特征维度降低到输入的 1/16,然后经过ReLu激活后再通过一个全连接层回到原来的维度。②极大地减少了参数量和计算量。

2023-09-17 21:37:01 104 1

原创 PaddleSeg-2.6.0中运行官方演示代码出错解决办法

2.‘avg_loss_list = [l[0] / log_iters for l in avg_loss_list]’也是要改成‘avg_loss_list = [l / log_iters for l in avg_loss_list]’。1./home/aistudio/PaddleSeg/paddleseg/core/train.py 文件内'avg_loss += loss.numpy()[0]'改成‘avg_loss += loss.numpy()’使用VOCaug数据集时会出现错误。

2023-09-15 15:32:43 1991 7

原创 汉诺塔问题的多杆与prolog的实现

hanoi5(2,A,C,D,E,B) :- %当A杆上只有两个盘子时,通过C、D、E杆的辅助,移动三次,到达B杆上。hanoi5(2,A,C,D,E,B) :- %当A杆上只有两个盘子时,通过C、D、E杆的辅助,移动三次,到达B杆上。hanoi5(M,B,A,C,D,E). %将B杆上的n-3个盘子通过A、C、D杆的辅助,移动到E杆上。hanoi5(M,B,A,C,D,E). %将B杆上的n-3个盘子通过A、C、D杆的辅助,移动到E杆上。

2023-07-17 13:25:46 369 1

原创 Machine Learning-Clustering-语义分割

图像语义分割

2023-07-01 16:32:03 82

原创 深度学习的自学笔记-7

1.AlexNet在激活函数上选取了Relu函数,在训练阶段梯度衰减快慢方面,Relu函数比传统神经网络所选取的非线性饱和函数要快,非线性饱和函数有:sigmoid函数,tanh函数。对于非饱和函数Relu来说,不需要对其输入进行标准化,但Alex等人发现,在Relu层加入LRN,可形成某种形式的横向抑制,从而提高网络的泛华能力。(可以避免过拟合现象的发生)2.AlexNet的模型在两个GPU上面运行,每个GPU负责一半网络的运算。,数据增强等手段增加训练的数据样本,以达到防止过拟合的目的。

2023-06-28 19:37:26 44 1

原创 深度学习的自学笔记-6

1.residual learning,模块主要解决在加深网络层数的情况下,训练缓慢及效果却更差的问题,从数学角度看待,在未使用残差结构时候,由于链式法则,使得梯度相乘后变为一个很小的值,导致训练的时候很慢,在加上残差结构时,梯度在其原来的基础上加上了一个原输入,使得梯度相对于前一种情况而言较大,能够使得训练加速收敛。阅读resnet原论文、在paddle中跑了fcn网络并得到预测结果。这是在paddle上进行预测的结果(左)与真实的图片(右)进行对比。在跑代码的过程中得到了一些直观性的感受。

2023-06-23 14:04:02 42 1

原创 深度学习的自学笔记-5

FCN网络结构使用的是vgg16的backbone,主要区别就是抛弃了传统的全连接层,使用卷积代替,通过backbone后的卷积,将图像的通道数变成了图像的分类数,大小即为W/下采样倍数×H/下采样倍数×num_cls,再经过一个上采样,转置卷积,也可使用双线性插值,将图像还原回原大小尺寸,得到W×H×num_cls大小的图像,再经过一个softmax函数,对每个像素进行分类预测,得到分割后的图像。总结:在上采样的这个操作上,不宜一次性进行过大倍数的上采样,而是应该分层次的进行。

2023-06-15 21:12:02 24

转载 拉格朗日乘子法、KKT条件

KKT条件

2023-06-10 14:43:36 23

原创 协方差矩阵

其中,对角线上的元素为各个随机变量的方差,非对角线上的元素为两两随机变量之间的协方差,根据协方差的定义,我们可以认定:矩阵 Σ 为。分别表示两个随机变量所对应的观测样本均值,据此,我们发现:方差。(symmetric matrix),其大小为 d × d。对于这些随机变量,我们还可以根据协方差的定义,求出。表示样本量,每个随机变量所对应的观测样本数量均为。可视作随机变量 x 关于其自身的协方差。根据方差的定义,给定d个随机变量。,k=1,2,...,d ,则这些。

2023-06-10 14:02:50 40

原创 深度学习的自学笔记-4

FCN网络舍弃掉了CNN中的全连接层,采用反卷积层对最后一个卷基层的特征图进行上采样,使它恢复到输入图像相同的尺寸,从而可以对每一个像素都产生一个预测,同时保留了原始输入图像中的空间信息,最后在特征图进行像素的分类。从宏观的角度看待,即是把图片中的同一物体打上相同的标签,达到分割的效果。转置卷积的作用即是为了还原feature map的尺寸大小,因为语义分割的目的是将图片中的每个像素进行分类,而在经过卷积后,图片中的特征信息已经被压缩,所以就需要一个上采样的操作还原图片的尺寸。

2023-06-07 19:29:58 27 1

原创 深度学习的自学笔记-3

GoogLeNet基于LeNet提出,其采用了Inception模块,模块内部分四路进行特征提取,最后在进行连接得到这一层的输出,Inception模块的每个分路保证相同的大小,便于最后的连接;同时模型中使用了辅助分类器,其在训练的过程中使用到,将模型中间层作为一个输出,计算预测值与真实值的损失,通过损失的反向传播,改善了之前的模型中梯度下降缓慢的情况。神经网络在训练的时候随着网络层数的加深,激活函数的输入值的整体分布逐渐往激活函数的取值区间上下限靠近,从而导致在反向传播时低层的神经网络的梯度消失。

2023-05-31 19:24:50 28

原创 深度学习的自学笔记-2

验证集的表现,与7类似,不同之处在于得到模型的输出后,结果softmax得到了一组概率值,需要对输出取最大值对应的索引位置值,表示模型的预测结果,谁的概率值越大,模型就预测结果为哪一类别,这里会使用到torch.max函数,得到预测结果和真实标签后就可以对模型进行相应的评价,如acc,f1_score等等。在上一个遍历中首先拿到每一个数据将输入和标签分开,再进行优化器的梯度清零,接着将输入放到模型得到输出,其次就根据定义的损失函数计算预测值和真实值之间的损失,然后对损失的反向传播,最后更新模型的权重。

2023-05-27 17:35:40 25 1

原创 深度学习的自学笔记-1

学习笔记

2023-05-24 21:04:39 36 1

原创 分治算法之疾病辅助诊断

决策树

2023-05-16 21:06:48 376 1

原创 电脑C盘空间快要不足了怎么办?

清理C盘中的QQ缓存图片内存

2023-05-04 22:39:51 80 1

原创 torch转paddle模型之torch.max与paddle.argmax

在 torch转paddle时,torch.max对应paddle的什么函数

2023-05-02 12:28:55 464 1

原创 L1-071 前世档案

以图为例,假设树叶的权值相等,从上到下观察到每层树的分支点的权值是8、4、2。规律就是第一层是2的n-0次方,第二层就是2的n-1次方.......首先定义两个左右范围,根据输入确定二分树的左右走向,即y则左、n则右。我们可以通过一个循环不断的调整左右范围来确定最终的树枝(结论)...

2022-07-28 16:22:15 103 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除