【笔记】An explainable deep machine vision framework for plant stress phenotyping

在这里插入图片描述

《An explainable deep machine vision framework for plant stress phenotyping》

背景

目前基于视觉症状的植物胁迫,由于其症状相似,主要是靠专家人工识别。但是人工过程繁琐,识别结果因人而异。

创新点

构建可解释的神经网络模型,实现植物胁迫的识别、分类和量化。并且解释哪些视觉特征用于病虫害的检测。

数据获取

在这里插入图片描述

照片数量

每种病害单张叶片2000张左右,包括正常叶片总共16207张,数据增强到65760张。

模型构建

在这里插入图片描述

模型解释

在这里插入图片描述
在这里插入图片描述
通过模型生成的卷积特征结合TOP-K算法生成特征图,与人工标记的叶片胁迫区域做空间相关性分析,验证特征图的“可信度”,借助视觉感官来解释卷积神经网络所产生的特征是如何用来胁迫识别和分类的。

在这里插入图片描述

胁迫程度等级预测:

对健康叶片计算其卷积层激活水平,以此为基准,计算各胁迫的激活水平,与其做比值,产生相应的胁迫等级标准。

在这里插入图片描述

猜你喜欢:👇🏻
【笔记】基于 Mask R-CNN 的玉米田间杂草检测方法

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
可解释的人工智能(explainable artificial intelligence,XAI)是指能够解释其决策过程和推理结果的人工智能系统。它为对人类用户透明且理解机器学习模型的方法提供了一个框架,从而能够更好地预测和预防事故。 事故预测是一种利用人工智能技术来提前发现潜在危险和减少事故发生率的方法。具有XAI特性的人工智能系统可以通过解释其决策背后的原因和依据,为用户提供更多观察和理解其工作方式的机会。 通过XAI技术,人们可以更准确地了解AI系统在预测和预防事故方面所依赖的数据和算法,以及其对不同特征和变量的注意力分配。这种透明性使用户能够评估系统的准确性和可靠性,并提供反馈来改善系统。 通过XAI的可视化工具,用户可以观察和分析模型在特定情况下是如何做出预测的。例如,使用热力图可以显示模型对不同因素的关注程度,用户可以从中了解到模型如何识别事故风险因素,并进行相应的依据和干预。 在事故预测方面,XAI可以提供几个关键好处。首先,它可以帮助用户理解模型是如何基于数据进行学习,从而提高对模型性能的信任度。其次,XAI可以帮助用户发现模型的潜在偏差或漏洞,并提供改进的反馈。此外,XAI还可以促进与用户之间的互动和共享知识,提高模型的可持续性和普适性。 总之,可解释的人工智能在事故预测中起到重要的作用,它通过透明和理解机器学习模型的方法,使用户能够更好地预测和预防事故。这将有助于提高安全性、降低风险,并在快速发展的人工智能领域中建立信任和合作关系。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值