损失函数梯度下降

定义

Loss=(y−z)^2

 def loss(self, z, y):
        error = z - y
        cost = error * error
        cost = np.mean(cost)
        return cost

在前段时间发的class中加入上述代码 其中y是真实值 z是预测值其中loss越小越好即我们可以使用梯度下降法

找到损失函数的曲面图中明显观察到有些区域的函数值比周围的点小的数字

(可比较直观的从损失函数的曲面图上发现极值点的存在) 比如w6,w9

import numpy as np
net = Network(13)
losses = []
# 这里设置步长为1 在【-159,159】中间
w6 = np.arange(-160.0,160.0,1.0)
w9 = np.arange(-160.0,160.0,1.0)
losses = np.zeros([len(w6),len(w9)])
# 计算设定区域内每个参数取值所对应的losses
for i in range(len(w6)):
    for j in  range(len(w9)):
        net.w[6] = w6[i]
        net.w[9] = w9[j]
        z = net.forword(x)
        loss = net.loss(z,y)
        losses[i,j]=loss
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
fig = plt.figure
ax = fig.add_axes(Axes3D(fig))
w6,w9 = np.meshgrid(w6,w9)
ax.plot_surface(w6, w9, losses, rstride=1, cstride=1, cmap='rainbow')
plt.show()

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值