【计算机科学】【2017.09】【含源码】基于深度学习的农业领域实例分割

在这里插入图片描述

本文为德国耶拿·弗里德里希·席勒大学(作者:Christoph Rieke)的硕士论文,共69页。

本论文的目的是通过深度学习实例分割,从卫星图像中描绘分割出农田地块。虽然手动描绘是准确的,但非常耗时,许多采用传统图像分割技术的自动化方法难以捕捉可能出现的各种场景。深度学习已经被证明在各种计算机视觉任务中都是成功的,并且可能是一个很好的候选者,能够对农业领域的应用进行准确、有效、概括的描述。

本文对来自丹麦的Sentinel-2图像数据和相应的农田多边形进行了完全卷积的实例分割架构设计(算法改进来自Li等人,2016年)。与许多其他方法不同,该模型在未经处理的RGB图像上运行,而没有进行显著的前处理和后处理。经过训练,该模型成功地预测了外置图像芯片的区域边界,将研究成果在不同的区域大小、形状和其他性质上进行了推广,但在某些情况下会表现出特征问题。在第二个实验中,该模型被训练为同时预测田地实例的作物类型,在这种情况下的性能明显较差。虽然许多田地都被正确地划定了,但预测的作物种类是错误的。总体而言,该方向的研究结果是有希望的,证明了深度学习方法的有效性,此外,该方法为将来的进一步改进提供了许多方向。

This thesis aims to delineate agriculturalfield parcels from satellite images via deep learni ng instance segmentation.Manual delineation is accurate but time consuming, and many automatedapproaches with traditional image segmentation techniques struggle to capturethe variety of possible field appearances. Deep learning has proven to besuccessful in various computer vision tasks, and might be a good candidate toenable accurate, performant and generalizable delineation of agricultural fields.Here, a fully convolutional instance segmentation architecture (adapted from Liet al., 2016), was trained on Sentinel-2 image data and correspondingagricultural field polygons fromDenmark. In contrast to many otherapproaches, the model operates on raw RGB images without significant pre- andpost-processing. After training, the model proved successful in predictingfield boundaries on held-out image chips. The results generalize acrossdifferent field sizes, shapes and other properties, but show characteristic problemsin some cases. In a second experiment, the model was trained to simultaneouslypredict the crop type of the field instance. Performance in this setting wassignificantly worse. Many fields were correctly delineated, but the wrong cropclass was predicted. Overall, the results are promising and prove the validityof the deep learning approach. Also, the methodology offers many directions forfuture improvement.

1 引言
2 基于深度学习的实例分割
3 研究方法
4 研究结果与评估
5 未来工作展望
6 结论

更多精彩文章请关注公众号:在这里插入图片描述

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【资源介绍】 基于深度学习场景语义分割python源码+项目说明.zip 本文创建了SUPnetw网络实现利用有限开放基准测试与无语义标签实际城市竣工测绘三维场景数据共同进行训练模型,提高城市三维场景点云语义分割的性能 SUPnet网络结构如下: SUPnet由特征提取器和分类器以及数据对齐模块共同构建MCD。 具体步骤如下: 1)源场景数据流经特征提取器,然后流经两个分类器,利用 cross-entropy_loss 训练特 征提取器以及两个分类器在源场景中的语义分割性能,同时复制一份源场景数据用以进行步 骤 2)PW-ATM 训练。\ 2)目标数据流经 PW-ATM 模块,利用 EMD_loss 来训练 PW-ATM 模块的转换能 力。\ 3)目标数据经过 PW-ATM 转换后,流入提取器和两个分类器,利用 ADV_loss 来最 大化分类器差异。在这一步中,冻结特征提取模块和数据对齐模块,仅更新两个分类器的参 数。\ 4)目标数据经过 PW-ATM 转换后,流入提取器和两个分类器,利用 ADV_loss 来最 小化分类器差异。在这一步中,冻结两个分类器,更新特征提取器和数据对齐模块的参数。 本项目的data下面应包四个文件: .\Source_Scene_Point_Clouds\ .\Target_Scene_Point_Clouds\ .\Validationset\ .\testset python train_SUPnet.py --model SUPnet --batch_size 12 --log_dir SUPnet --epoch 32 python test_SUPnet.py --log_dir SUPnet --visual SUPnet对实际城市竣工数据语义分割结果如下: ![结果.png](%E7%BB%93%E6%9E%9C.png) 其中,a列和c列为PointNet++语义分割结果,b列和d列为SUPnet语义分割结果。 表格 网络测试集语义分割准确率 PointNet++ acc(%) SUPNet acc (%) 实验区A 34.5 89.3 实验区B 37.3 85.1 实验区D 12.8 88.7 实验区F 32.7 90.8 平均 29.3 88.5 【说明】 该项目是个人毕设项目,答辩评审分达到95分,代码都经过调试测试,确保可以运行!欢迎下载使用,可用于小白学习、进阶。 该资源主要针对计算机、通信、人工智能、自动化等相关专业的学生、老师或从业者下载使用,亦可作为期末课程设计、课程大作业、毕业设计等。 项目整体具有较高的学习借鉴价值!基础能力强的可以在此基础上修改调整,以实现不同的功能。 欢迎下载交流,互相学习,共同进步!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值