神经网络与深度学习(三)

四、前馈神经网络

4.1神经元

在这里插入图片描述
可以看成一个简单的线性模型

不同神经元区别在于激活函数f
在这里插入图片描述
激活函数不一定要单调递增
举例:
在这里插入图片描述
S型函数
在这里插入图片描述
非零中心化解决办法:1.normalization(归一化) 2.σ(x)+b(加偏置)

斜坡函数:
在这里插入图片描述
x<0时y全为0(死亡ReLU问题)
解决办法:近似零中心化的非线性函数
在这里插入图片描述
使函数介于线性和ReLu之间

在这里插入图片描述
在这里插入图片描述

4.2神经网络

三个要素:激活函数、网络拓扑、学习算法
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.3前馈神经网络

在这里插入图片描述
三层网络(输入层一般不算层,记为第0层)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
应用:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.4反向传播算法

矩阵微积分写法:
在这里插入图片描述
矩阵微积分中的链式法则:
在这里插入图片描述
在这里插入图片描述
先忽略正则项
在这里插入图片描述
在这里插入图片描述
如若计算一个参数的偏导数,首先计算出损失函数在最后一层的偏导数,即最后一层的σ(l),然后通过迭代公式一层一层往前传,得到每一层的误差项,再乘上对应参数的导数,就得到损失函数对应每一层的导数
在这里插入图片描述

4.5计算图与自动微分

更加高效的微分方法
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
两层的神经网络
第一层Dense(全连接层): 输出100维输出64维,用relu激活函数
第二层Dense(输出层): 输入64维输出10维,用Softmax激活函数
损失函数用交叉熵
优化用sgd
metrics 用准确率
model.fit 用随机梯度下降开始训练
nb_epoch: 当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一次epoch。(也就是说,所有训练样本在神经网络中都 进行了一次正向传播 和一次反向传播 )再通俗一点,一个Epoch就是将所有训练样本训练一次的过程。
batch_size: 一次训练所选取的样本数。

4.6优化问题

eg:两层的神经网络

在这里插入图片描述
区分全局优化和局部优化比较困难

在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值