项目实训三

本文详细介绍了深度学习中的神经网络模型,包括感知器、前馈网络、径向基网络、深度前馈网络、循环神经网络(RNN)、长短期记忆网络(LSTM)和门控循环单元(GRU)。还提到了使用PyTorch中的tensorboard进行训练过程可视化和transforms的运用。
摘要由CSDN通过智能技术生成

深度学习

本周主要学习了深度学习的相关内容,包括常见的神经网络模型,比如

  • 感知器——也叫做单层神经网络,因为仅包含两层
  • 前馈(FF)——前馈神经网络是一种其中的节点不会形成循环的人工神经网络。在这种神经网络中,所有的感知器都被安排在输入层接收输入,输出层产生输出。隐藏层与外部世界没有联系,这就是为什么它们被称为隐藏层。在前馈神经网络中,一层的每个感知器与下一层的每个节点连接。因此,所有节点都是完全连接的。需要注意的是,同一层中的节点之间没有可见或不可见的连接。在前馈网络中没有后回路。因此,为了使预测误差最小化,我们通常使用反向传播算法来更新权值。
  • 径向基网络——径向基函数网络通常用于解决函数逼近问题。区别于其它神经网络,它们有更快的学习速度和通用逼近能力。径向基神经网络和前馈神经网络的主要区别在于,径向基神经网络使用径向基函数作为激活函数。
  • 深度前馈——深层前馈网络是使用多个隐藏层的前馈网络。只用一层隐藏层的主要问题是过拟合,因此通过增加隐藏层,可以减少过拟合,提高泛化能力。
  • 循环神经网络(RNN)——循环神经网络是前馈神经网络的一种改进形式。在这种类型中,隐藏层中的每个神经元接收具有特定时间延迟的输入。使用这种类型的神经网络,我们需要在当前的迭代中访问之前的信息。例如,当我们试图预测一个句子中的下一个单词时,我们首先需要知道之前使用的单词。循环神经网络可以处理输入并跨时共享任意长度和权重。模型大小不会随着输入的大小而增加,模型中的计算会考虑到历史信息。然而,这种神经网络的问题是计算速度慢。此外,它不能考虑当前状态的任何未来输入。它也无法记住很久以前的信息。
  • 长/短期记忆(LSTM&
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值