神经网络与深度学习课程笔记(二)

文章讨论了自适应梯度算法,其中参数学习率根据历史梯度调整,简化了优化过程。提到了二阶算法如高斯-牛顿法,并列举了多种深度学习框架,如TensorFlow、Caffe、JAX和MXNet,以及它们的特点。此外,还介绍了卷积神经网络的基础知识,包括全连接网络、局部连接网络、卷积层和池化层的作用。
摘要由CSDN通过智能技术生成

自适应梯度算法

  • 参数自适应变化:具有较大偏导的参数相应有一个较大的学习率,而具有小偏导的参数则对应一个较小的学习率
  • 具体来说,每个参数的学习率会缩放各参数反比于其历史梯度平方值总和的平方根

主要有三种算法:

在这里插入图片描述在这里插入图片描述在这里插入图片描述

性能优化问题

描述

我们希望建立迭代形式,并且形式尽量简单,类似基本BP算法(最速梯度法):

w k + 1 = w k + α k p k w_{k+1}=w_k+\alpha_kp_k wk+1=wk+αkpk

如何选取 α k \alpha_k αk, p k p_k pk构成优化核心内容

二阶算法

在这里插入图片描述二阶算法:

  • 常规梯度法
  • 高斯-牛顿法
  • Levenberg-Marquardt算法

深度学习平台介绍

库名发布者支持语言支持系统
TensorFlowGooglePython/C++/Java/GoLinux/Mac OS/Android/iOS
CaffeUC BerkeleyPython/C++/MatlabLinux/Mac OS/Windows
JAXGooglePythonLinux/Windows
MXNetAmazon/DMLC(分布式机器学习社区)Python/C++/Matlab/Julia/Go/R/ScalaLinux/Mac OS/Windows/Android/iOS
Torch/PyTorchFacebookC/Python/…Linux/Mac OS/Windows/Android/iOS
PaddlePaddle百度PythonLinux/Windows
MMdetection商汤/港中文PythonLinux/Windows
库名学习材料丰富程度CNN建模能力RNN建模能力易用程度运行速度多GPU支持程度
TensorFlow★★★★★★★★★★★☆★★☆★★★
Caffe★★★★★★★
JAX★★★★★★★★★★★★★★★
MXNet★★☆★★★★★★☆★★☆★★★
Torch/Pytorch★★★★★★★★★★★★★★☆★★☆
PaddlePaddle★★★★★★★★★★★★
MMDetection★★★★★★★★★★☆

在这里插入图片描述

卷积神经网络基础

进化史:

在这里插入图片描述
基本概念:

  • 全连接网络

    链接权过多,难算难收敛,同时可能进入局部极小值,也容易产生过拟合问题

  • 局部连接网络

    顾名思义,只有一部分权值连接。部分输入和权值卷积

  • 特征提取
  • 填充

    在矩阵的边界上填充一些值,以增加矩阵的大小,通常用0或者复制边界像素来进行填充

  • 步长
  • 多通道卷积
  • 池化

    使用局部统计特征,如均值或最大值。解决特征过多问题

  • 卷积神经网络结构

    由多个卷积层和下采样层构成,后面可连接全连接网络

LeNet-5网络

网络结构:

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值