自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 问答 (1)
  • 收藏
  • 关注

原创 OUC的搬砖日记04|深度学习第四周

1.训练HybridSN,然后多测试几次,会发现每次分类的结果都不一样,请思考为什么?在进行训练数据加载时,每次都会进行shuffle操作,每次的shuffle操作是随机的。定义了一个优化器,该优化器能自适应优化学习率,也增加了训练结果的不确定性。③HybridSN包含dropout正则化技术2.如果想要进一步提升高光谱图像的分类性能,可以如何改进?①加深网络层数:通过增加卷积神经网络(CNN)的深度,可以提高模型对高光谱图像的学习能力和特征提取的复杂度。

2024-08-28 19:28:30 654

原创 OUC的搬砖日记03|深度学习第三周

Batch Normalization 的基本原理是对每个 mini-batch 的数据进行归一化处理,使得每个特征的均值为 0,方差为 1。

2024-08-28 19:23:59 273

原创 OUC的搬砖日记02|深度学习第二周

①shuffle=False:不对数据进行随机打乱。②shuffle=True:对数据进行完全随机的打乱。③shuffle=Sequence:根据指定种子来对数据进行打乱,用相同的种子打乱的结果是一样的。2.transform里,取了不同值,这个有什么区别?①缩放操作:transforms.Resize(size):将图像缩放到指定的大小,size 可以是一个整数或一个元组,例如 transforms.Resize(256) 或 transforms.Resize((256, 256))。

2024-08-28 19:17:39 980

原创 OUC的搬砖日记01|深度学习第一周

AlexNet具有更深的网络结构,更大的卷积核和池化核,其激活函数使用的是ReLU函数可以解决梯度消失的问题,能够避免过拟合具有较强的泛化能力。引入了DropOut机制,训练时随机关闭部分神经元,避免过拟合。因为AlexNet具有更深的网络结构,能够更好的学习复杂的特征。有更大的卷积核和池化,核可以提取更丰富的特征,相比于LeNet使用的Sigmoid激活函数ReLU函数既可以解决梯度消失问题,又能够加快计算速度。在不用的情况下SGD 和 Adam各有优缺点,

2024-08-28 19:04:59 682

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除