第二组 ALPHA (3/3)

一、完成的任务

后端:利用Django框架完成了高光谱分类的后端书写,且导入了训练模型,解决了网页的提交问题,在网页中进行高光谱分类时提交两个mat文件即可完成分类,显示结果为分类后的图像。已经将代码传到服务器供前端使用。

zrng9e.jpg

zrn0n1.jpg

前端:利用 Vue 完成初始界面的编写,通过后端的框架编写,通过服务器完成对接工作。

训练:完成三组图像的训练工作,得到三个数据集的模型;

​ 阅读代码,学习网络架构,思考进一步改进措施。

二、具体项目分工和进度

任务姓名
前端陈江栋
核心代码编写和数据训练以及验证模型李智杰、邱琦、陈江栋
后端对接韦境、宋子昂、陈晓政

三、燃尽图

zrmDJg.jpg

四、例会照片

请添加图片描述

五、问题

1、在后端进行模型的导入时,因为Mac本的缘故,没有GPU只能使用CPU来进行 pytorch 训练,但是原训练模型代码中torch部分使用GPU来进行训练,所以在使用训练代码时总是报错,后面了解到了torch.load里可以进行相关参数的设定来决定CPU运行:

​ 即model =torch.load(model_path,map_location=‘cpu’)

2、在构建分类网络模型时,因输出格式原因,导致无法成功进行网络的搭建,后面以字典的方式进行调用解决了这一个问题

3、在使用js文件时,js文件总是找不到,查看路径也没有发现问题,后来重新使用了另一个路径解决了这个问题。

六、下一步计划

研读论文,领悟思考网络的算法思想,争取获得更优的训练模型。
前端美化界面设计,完善页面,测试网页可用性。
完成各接口的对接工作,对接成功后测试整个识别过程。

七、收获

​ 通过本周学习,对高光谱分类算法的理解更加深刻,在实践中对深度学习框架和学习过程有了更深刻的理解。前后端工作已基本完成,收获到了丰富的修改bug经验,以及学习到了如何将项目部署上服务器,小组成员收获颇丰。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 这里给出MobileNetV3的一组实参: ``` MobileNetV3( input_size=224, # 输入图像的大小为224x224 dropout_rate=0.2, # dropout率为0.2 num_classes=1000, # 分类数为1000 width_multiplier=1.0, # 宽度乘数为1.0 depth_multiplier=1.0, # 深度乘数为1.0 minimalistic=False, # 使用标准的MobileNetV3模型 include_top=True, # 包含顶层的分类器 pooling='max', # 池化方式为最大池化 alpha=1.0, # 控制网络整体的宽度 blocks=[ # MobileNetV3中的各个block (16, 16, 1, False), # 第一个block:输出通道数为16,步长为1,使用ReLU激活函数 (24, 72, 2, False), # 第二个block:输出通道数为24,步长为2,使用ReLU激活函数 (24, 88, 1, False), # 第三个block:输出通道数为24,步长为1,使用ReLU激活函数 (40, 96, 2, True), # 第四个block:输出通道数为40,步长为2,使用h-swish激活函数 (40, 240, 1, True), # 第五个block:输出通道数为40,步长为1,使用h-swish激活函数 (80, 240, 2, False), # 第六个block:输出通道数为80,步长为2,使用ReLU激活函数 (80, 120, 1, False), # 第七个block:输出通道数为80,步长为1,使用ReLU激活函数 (80, 112, 1, True), # 第八个block:输出通道数为80,步长为1,使用h-swish激活函数 (80, 112, 1, True), # 第九个block:输出通道数为80,步长为1,使用h-swish激活函数 (112, 480, 1, True), # 第十个block:输出通道数为112,步长为1,使用h-swish激活函数 (112, 672, 1, True), # 第十一个block:输出通道数为112,步长为1,使用h-swish激活函数 (160, 672, 2, True), # 第十二个block:输出通道数为160,步长为2,使用h-swish激活函数 (160, 960, 1, True), # 第十三个block:输出通道数为160,步长为1,使用h-swish激活函数 ], final_expand_layer=False, # 最终的扩展层不进行扩展 round_nearest=8, # 通道数取整的最近因子为8 block_=None, # 默认使用标准的MobileNetV3模型 norm_kwargs=None, # 默认不使用标准化 ) ``` ### 回答2: MobileNetV3是一种轻量级的卷积神经网络架构,主要用于图像分类任务。下面是一组根据上文所述的MobileNetV3架构的实参: 1. 输入图像尺寸:为了保持网络的高效性,可以将输入图像尺寸设置为224x224或者320x320像素。这个尺寸通常能够保留足够的图像细节,同时又能够减少网络计算量。 2. 输入通道数:MobileNetV3可以接受不同通道数的输入。在常见的RGB图像中,输入通道数为3。如果使用其他类型的图像,可以根据需要设置不同的通道数。 3. 宽度倍率:MobileNetV3引入了一个宽度倍率(width multiplier)的概念,用于控制网络中各个层的通道数。宽度倍率为1表示使用原始的通道数,而小于1的宽度倍率则表示将通道数进行缩减。根据具体的需求和计算资源,可以选择适当的宽度倍率。 4. Bottleneck层的数量:MobileNetV3中的每个Bottleneck层由一个1x1卷积层和一个3x3深度可分离卷积层组成。可以根据实际需要,设定Bottleneck层的数量,通常在一般情况下,可以选择16个或者32个Bottleneck层。 5. 网络深度:MobileNetV3通过堆叠多个Bottleneck层来构建整个网络。可以根据任务的复杂程度和计算资源的限制,设定网络的深度。一般而言,可以选择深度为10或者15,也可以根据实际需求进行调整。 这是根据上文所述的MobileNetV3架构的一组实参示例,可以根据具体的任务和资源情况进行调整和优化。 ### 回答3: MobileNetV3是一种轻量级的卷积神经网络,由Google在2019年提出。根据上文,我们可以编写一组MobileNetV3的实参,以使用该网络进行图像分类任务。 MobileNetV3的构建非常灵活,可以根据具体的需求进行调整。以下是一组可能的实参: 1. 输入图像尺寸:MobileNetV3可以适应不同的输入图像尺寸。根据任务的需要,可以选择不同的输入尺寸,比如224x224或者128x128。 2. 网络宽度倍率(width multiplier):该参数可以控制网络的宽度,是一个介于0和1之间的浮点数。当为1时,表示使用原始网络的宽度;当为小于1的数时,表示缩小网络的宽度。可以根据计算资源的限制和任务要求进行调整。 3. 网络的深度倍率(depth multiplier):该参数控制网络的深度,是一个介于0和1之间的浮点数。当为1时,表示使用原始网络的深度;当为小于1的数时,表示缩小网络的深度。同样可以根据计算资源和任务要求进行调整。 4. 激活函数(activation function):MobileNetV3使用了Swish激活函数,可以增强模型在捕捉特征方面的能力。可以使用Swish作为激活函数,也可以使用其他的激活函数,如ReLU或LeakyReLU。 5. 卷积操作的结构:MobileNetV3采用了精心设计的卷积操作结构,包括标准卷积、深度可分离卷积、SE模块等。可以根据任务的需求选择合适的操作结构。 6. 其他超参数:除了上述参数外,还可以调整一些其他的超参数,如学习率、优化器等,以进一步优化模型在特定任务上的性能。 以上是一种可能的MobileNetV3的实参组合,不同的实参组合会对模型的性能产生影响。根据具体的任务需求和计算资源的限制,可以进行适当的调整和优化,以得到更好的性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值