机器学习 强化学习 深度学习的区别与联系

本文探讨了机器学习领域的发展,强调了其与统计学习的关系,区分了深度学习的三大类(CNN,RNN,GAN),并介绍了前馈神经网络、反馈神经网络(如循环神经网络)和图网络的特性。
摘要由CSDN通过智能技术生成

机器学习 强化学习 深度学习

机器学习

 按道理来说, 这个领域(机器学习)应该叫做 统计学习 (Statistical Learning),因为它的方法都是由概率统计领域拿来的。这些人中的领军人物很有商业头脑, 把统计和物理的数理模型, 改名叫做机器, 比如**模型(model)就叫**机(machine),把一些层次模型(hierarchical model)说成是“网”(net)。这样,搞出了几个“机”和“网”之后, 这个领域就有了地盘。另一方面,我的那些做统计的同事们也都老实、图个清静,不与他们去争论, 也大多无力去争。当然,统计学领域也有不少人参与了机器学习的浪潮。简单说,机器学习中的 “机器”就是统计模型,“学习”就是用数据来拟合模型。 是由做计算机的人抢占了统计人的理论和方法,然后,应用到视觉、语音语言等 domains。

 深度学习

深度学习可以分成三大类,其应用场景的区别是:

科普 | 深度学习算法三大类:CNN,RNN和GAN - 知乎 (zhihu.com)

前馈神经网络 反馈神经网络 图网络

目前比较常用的神经网络结构

前馈神经网络

每一层中的神经元接收前一层神经元的输出,并输出到下一层神经元。整个网络中的信息是朝着一个方向传播的,即输入到输出方向,没有反向的信息传播(和误差反向传播不是一回事),可用有向无环图表示

例:全连接前馈神经网络(FC)卷积神经网络(CNN)

反馈神经网络

反馈神经网络中神经元不但可以接收其他神经元的信号,而且可以接收自己的反馈信号。和前馈神经网络相比,反馈神经网络中的神经元具有记忆功能,在不同时刻具有不同的状态。反馈神经网络中的信息传播可以是单向也可以是双向传播,因此可以用一个有向循环图或者无向图来表示。

e. 循环神经网络、Hopfield网络和玻尔兹曼机。

而为了进一步增强记忆网络的记忆容量,可以映入外部记忆单元和读写机制,用来保存一些网络的中间状态,称为记忆增强网络,比如神经图灵机。

图网络

图网络是定义在图结构数据上的神经网络,图中每个结点都由一个或者一组神经元组成。结点之前的连接可以是有向的,也可以是无向的。每个结点可以收到来自相邻结点或自身的信息。

  • 3
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

坠金

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值