Neural Networks and Deep Learning 学习笔记(三)

1. 怎么理解 C(w,b)12nxy(x)a2

首先, v 是指范数

范函是一个函数,其为矢量空间内的所有矢量赋予非零的正长度或大小

好吧,这其实是个均方误差函数,可自行查阅百度百科,但是不明白为什么是 12n

2. 什么是梯度下降,为什么要用梯度下降算法。

首先,梯度就是标量场某一点增长最快的方向向量,向量大小是这个最大变化率。

就比如一元函数(就是y=f(x)这种)函数,那么梯度的大小为其导数,因为导数就是 δy/δx ,就是函数在这一点的变化率。而方向为切线方向,因为在x方向的变化量只有 δx ,y方向的变化量只有 δy ,而切线方向则为二者平方和的根号,显然切线方向增长最快。

我们知道沿梯度方向是增长最快的方向,那么沿着梯度的反方向就是减小最快的方向了。此时的减小率为最大也就是斜率。而 x ,可以保证x在越接近极值点时x减小程度越小。

所以神经网络中用梯度下降法逼近真实值非常好,不至于一次减小的过大造成更大偏差。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值