深度学习入门之第五章 误差的方向传播

前言: 前面几个章节主要讲了这几件事情,

第一:神经网络如何前向传播

第二:神经网络输出层的设计方案

第三:神经网络怎么判别输出的数据是否符合我们的要求,以及其离我们的要求还差多少?

OK!!!本章之中介绍两件事情:

第一: 我给你一个普通的函数, 你怎么找好函数的最小值,

第二: 在我们使用交叉熵之后得到我们和真实数据之间的差距时,神经网络是如何调整其中的参数,

 

(1) 求f(x_{1}+x_{2})=x{_{1}}^{2}+x{_{2}}^{2}的最小值, 其实这就是大学的微分方程,理解起来没有啥问题的,最后他把这个思想也应用到神经网络优化参数之中。

求解的思想就是:首先我在这个函数选择一个坐标点(x{_{1}}x{_{2}}

然后我对f(x_{1}+x_{2})=x{_{1}}^{2}+x{_{2}}^{2}进行求偏导 得到在(x{_{1}}x{_{2}})偏导数\frac{\partial f(x_{1}+x_{2}) }{\partial x_{1}}\frac{\partial f(x_{1}+x_{2}) }{\partial x_{2}}

最后定义一个学习率 \eta,  每次按照x{_{1}}\eta * \frac{\partial f(x_{1}+x_{2}) }{\partial x_{1}}的方法更新x{_{1}}x{_{2}}即可  最后一定能够找到f(x_{1}+x_{2})的最小值

 

(2) 神经网络是如何优化参数

我的理解是神经网络优化参数的方式和函数求最小值的过程是一致的,不同点在于两个:

第一:函数坐标点的选区, 神经网络中函数的坐标点(x{_{1}}x{_{2}})  是经过神经网络识经过交叉熵之后的损失值,我们的目标是优化将这个参数最小化

第二:普通的函数中所求的偏导数是根据基本的求导法则就可以了,  但是在神经网络的优化之中是有一个矩阵的偏导。

 

OK!!!!!!接下来通过几段代码解释一下上面的说法   程序是不会骗人的

# 第一个程序 直观展示f(x_{1}+x_{2})=x{_{1}}^{2}+x{_{2}}^{2}的空间结构

import matplotlib.pyplot as plt
import numpy as np
from mpl_toolkits.mplot3d import Axes3D

fig = plt.figure()
ax = Axes3D(fig)
X = np.arange(-2, 2, 0.1)
Y = np.arange(-2, 2, 0.1)
'''
X = np.arange(-2, 2, 0.25)
Y = np.arange(-3, 6, 0.25)
'''
# np.meshgrid()中两个参数分别表示X, Y轴的取值范围
#              把X, Y中的数据修改成一下 看一下图像的坐标就可以了
X, Y = np.meshgrid(X, Y)
Z = X**2 + Y**2
ax.plot_surface(X, Y, Z, cmap='rainbow')
plt.show()

结果展示: 这个程序说实在的没啥意思

 

# 第二个程序  f(x_{1}+x_{2})=x{_{1}}^{2}+x{_{2}}^{2}反向传播求最值问题

 

 

# 第三个程序梯度法更新神经网络中的参数

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值