我所理解的深度学习

深度学习是利用多层神经网络进行自动分类、预测和学习的技术,其核心算法是反向传播。影响深度学习的因素包括大数据、深度网络架构和GPU。大数据提供训练材料,深度网络架构如前馈神经网络、卷积神经网络和循环神经网络各有特点,GPU则加速了训练过程。深度学习常处理多特征数据,并在图像识别、时间序列分析等领域有广泛应用。
摘要由CSDN通过智能技术生成

1.利用深度人工神经网络进行自动分类、预测和学习的技术被称作是深度学习。

   普遍的观点是,只要超过三层以上的神经网络都可以叫做深度神经网络。(所以深度学习的本质还是利用神经网络去完成自己的目的,而神经网络的核心算法是反向传播,想在深度学习领域有自己的创新:组合创新、算法创新或者应用场景创新,都需要对反向传播的思想和伪代码有认真了解。)

   在这里解释一下:为什么通俗约定是三层以上。因为在一个完整的神经网络架构里面:最少要有输入层、隐含层、输出层。而输入层不被认为是一个层数,当隐含层个数等于2时,便能够模拟出各种复杂的平面函数,大于2的时候,复杂的空间映射关系也能模拟出来,所以深度神经网络通常也被用来处理多特征数据。

2.影响深度学习的三个因素

  大数据、深度网络架构、  GPU

       数据是深度学习的“粮食”  ,数据量越大,在相同的网络架构下,深度学习表现能力越好。但是大量带标签的有效数据的获取是很困难的,支持向量机之前的火热,就是因为它在小样本分类领域,具有很强的能力。

    深度网络架构决定了一个网络本质的性能好坏。根据整个网络的构建方式和拓扑连接结构,主要分为2类:前馈神经网络、循环神经网络。(有的人会特意把卷积神经网络也归为一类,但是卷积网络说到底还是前馈神经网络,所以我没有单独列出来。)

     影响深度网络架构的主要因素:1.网络的拓扑连接方式;2.超参数的选择。

     普通的前馈神经网络:也叫全连接网络,所有的节点都可以分为一层一层,每个节点只跟它的相邻层节点而且是全部节点相连。

    卷积神经网络:卷积神经网络主要构成:输入层,隐含层(卷积层,池化层),输出层。

它独特之处就是卷积层,卷积层利用卷积核去学习特征表示,而且每层卷积核是参数共享,这相对于全连接网络,大大减少了权重参数量。卷积网络可以自动提炼数字图像的低尺度和高尺度特征,低层神经元可以提取图像边缘、棱角等小尺度信息。中间层单元可以提取数据中更高的尺度信息,到了更高层,能提取到整张脸的特征。

循环神经网络:常用于处理时间序列信号,主要是它的网络设计,考虑到了同层内的神经元之间的联系。

  GPU:大大加快训练速度,实现深度学习在工业领域落地的关键部件。

   

         

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深度学习的奋斗者

你的鼓励是我努力的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值