深度学习基本算法介绍

本篇论文主要介绍的是深度学习和植物表型,开始先介绍了深度学习的几种方法,后来又介绍了深度学习在植物表型中的应用。总结了已经做的深度学习在植物表型领域的已有工作。

深度学习的应用方向

机器学习(以及深度学习)的概念可以应用于植物胁迫表型的四大类问题。这些类别构成所谓的“ICQP”范例的一部分,首字母缩写词代表以下四个类别:(i)标识,(ii)分类,(iii)量化和(iv)预测。

识别是指检测特定的压力(环境胁迫)。

分类根据压力症状和特征对图像进行分类。

量化涉及压力的定量表征,例如疾病发生率和严重性,疾病发生率定义在时间刻度上或者区域刻度上发病数与总数的比值;严重程度为叶片或整个植物冠层上受疾病影响的植物组织面积。

预测是在可见的胁迫症状出现之前提前预测植物的胁迫。

深度学习的优势

传统的机器学习和其他方法在一个模型中通常分为特征提取和决策两个过程,也就是说必须先提取数据特征,才能依靠这些特征进行识别、分类、量化、预测;而深度学习方法一个模型中结合了两个过程,通常可以利用原始数据直接训练模型,但是,对原始数据进行处理仍有利用模型,通常处理过的数据可以缩短模型训练时间,使用扩大数据集方法可以防止过拟合问题等,但是就准确性来说,差别不大。

流行神经网络架构

卷积神经网络
刚开始了解可以看这篇

https://easyai.tech/ai-definition/cnn/

详细的卷积神经网络中卷积层、激活层、池化层、全连接层的理解

https://www.cnblogs.com/jyroy/p/13762902.html

各个层的作用

https://blog.csdn.net/qq_30979017/article/details/79506593

https://www.zhihu.com/question/22334626

https://www.zhihu.com/question/41037974

在卷积神经网络中,卷积层的主要作用是特征提取,池化层的主要作用是图像压缩或者说降维,激活层可以用激活函数将回归问题转为分类问题,全连接层则利用前面卷积层的提取特征将图像进行分类或回归。一个卷积神经网络中通常有多个重复的卷积层和池化层,这是因为只进行单一的特征提取提取的特征不够用来进行回归或分类,通常进行多次降维,在多个维度上都进行特征提取,这样更有利于后续分类或回归。

常见的CNN架构
粗略概述,不容易理解

https://www.jianshu.com/p/975d377a2745

介绍比较详细,可以细看

https://zhuanlan.zhihu.com/p/31006686

大佬笔记

https://blog.csdn.net/wuwei178/article/details/109428669

无监督的深度神经网络

典型的为深度置信网络DBN

从这个链接了解DBN的基本概念

https://www.jianshu.com/p/436735e6994a

这里说一下DBN用于无监督的原因;由于在受限玻尔兹曼机(RBM)中,隐层和显层是双向连接的,所以我们既可以按照正常前馈神经网络那样,建立从观察数据到标签的联合分布,还可以建立从标签到观察数据的联合分布,所以在RBN的训练过程中,显层1(v1)和参数进行计算得到隐层1(h1),再利用h1计算得到v2,再利用V2计算得到h3,一直这样计算下去,最终隐层不仅能较为精准地显示显层的特征,同时还能够还原显层。

参考博客

https://blog.csdn.net/Rainbow0210/article/details/53010694?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.channel_param&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.channel_param

时间序列的深度神经网络

主要介绍循环神将网络(RNN)和长短期记忆网络(LSTM)

RNN参考

https://zhuanlan.zhihu.com/p/30844905

LSTM参考

https://www.jianshu.com/p/dcec3f07d3b5

LSTM相比于RNN添加了长期状态一项,长期状态由上一个时刻的长期状态、当前状态共同决定。同时,长期状态由遗忘门、输入门、输出门共同控制。其中输入门决定了当前时刻网络的输入 x_t 有多少保存到单元状态 c_t,是由当前的输入数据和当前的状态共同决定的,也就是在网络中计算输入门时,当前状态代表的是没有加入当前输入的状态,需要这两方面共同计算出用于计算的当前状态。这是上面链接介绍中我的理解。

迁移学习

转移学习是将从一个问题学到的模型(和相关表示)被转移到一个不同但相关的问题上。在DL传输学习的情况下,可能涉及(i)重新使用可能涉及新数据集的新任务的整个模型(架构+参数),(ii)仅重新使用模型架构/超参数,但要从中学习参数 从头开始使用新数据集,以及(iii)重用模型,但在根据新数据集对模型参数进行微调

迁移学习的初步理解可以看这篇

https://www.zhihu.com/topic/20079475/intro

同时这篇也对CNN有一定的解释,文中说明了随着卷积层的增多,模型学到的特征越来越明显,并在较深的层中接近图片中的特征,所以可以只保留前面学到的泛性的特征,并用于迁移学习。

基本概念可以看这两篇

https://blog.csdn.net/dakenz/article/details/85954548

最后是大佬做的超级详细的关于迁移学习的归纳整理,从最新文章到可以上手的代码,应有尽有

http://transferlearning.xyz/

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值