自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 CV-homework

这篇是CV作业要看的论文,我读了这篇分析这篇论文之前,由于没太接触过,我先记录一点基础知识。LDR图像通常具有有限的亮度范围,这意味着它们无法准确捕捉高亮度和低亮度区域的细节。这些图像通常使用标准的8位深度图像表示,每个通道有256个不同的亮度级别。HDR图像具有更广的亮度范围,能够准确捕捉高亮度和低亮度区域的细节。这些图像通常使用更高的位深度来表示,例如16位或32位深度,以提供数千或数百万个不同的亮度级别。相机成像过程的建模。

2023-11-02 10:26:14 52 1

原创 深度学习基础week-four

DW卷积是在每个通道上进行卷积后,再分成一块一块进行组合,比如说每一组的第一份放一起,第二份放一起等等,融合不同group的信息。残差结构和倒残差结构,框架是一致的,只是升降维和使用的卷积不太相同,而且倒残差结构这用的是Relu6激活函数。权重初始化是随机的,同时HybridSN使用了dropout随机失活,都有一定的随机性,所以分类结果都不一样。训练HybridSN,然后多测试几次,会发现每次分类的结果都不一样,请思考为什么?运用迁移学习,利用已经成熟的高光谱分类网络所得到的权重,再进行训练调整。

2023-08-05 09:20:48 31 1

原创 深度学习基础week-three

这里的残差结构有所不同的是,一种有虚线,由于要求主分支与短接的输出特征矩阵形状必须相同,于是这个虚线就是用1*1的卷积进行调整。注意一下细节,18层,34层,50层,101层等残差网络大体结构相同,但前两种层数较少的网络conv2中,主分支与短接的输出特征矩阵维度相同,没有采用有虚线的,而后面多层的网络这里是用虚线的那种残差结构。

2023-07-28 10:11:28 109 1

原创 深度学习基础week-two

♥CIFAR10 数据集♥MNIST 数据集分类。

2023-07-20 10:49:36 42 1

原创 视频要点记录

卷积神经网络卷积神经网络。

2023-07-18 16:04:12 35 1

原创 深度学习基础week-one

1、AlexNet有哪些特点?为什么可以比LeNet取得更好的性能?♥AlexNet网络有8层,其中包括5层卷积和2层全连接隐藏层,以及1个全连接输出层,像是一个更深更大的LeNet。♥AlexNet使用了ReLu激活函数来代替sigmoid和tanh函数,计算更简单,使网络有更快的收敛速度。♥AlexNet使用了Dropout进行随机失活,降低模型复杂度和不稳定程度,避免过拟合。♥使用了GPU加速,训练速度更快。2、激活函数有哪些作用?

2023-07-13 15:48:46 64 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除