为什么神经网络无法用解析解来解?

这个是面试是遇到的这个问题。说对于线性回归,可以用normal equation来解,但是为何deep learning没法用解析解?当时答得略差。从网上找答案暂时也没有特别好的答案,因此我自己想了一下,总结在这里。对于类似于sigmoid、tanh还有什么softplus之类奇奇怪怪的激活函数来说,以及类似交叉熵之类的损失函数来说,前向推断直接求导之后等于0,求极值,这个方程是超越方程,没有解析解。事实上人类能解的方程很少的。即使是最简单的多项式方程来说,大于等于5次的,都没有解析解求解( Abel
摘要由CSDN通过智能技术生成

这个是面试是遇到的这个问题。说对于线性回归,可以用normal equation来解,但是为何deep learning没法用解析解?当时答得略差。从网上找答案暂时也没有特别好的答案,因此我自己想了一下,总结在这里。

  1. 对于类似于sigmoid、tanh还有什么softplus之类奇奇怪怪的激活函数来说,以及类似交叉熵之类的损失函数来说,前向推断直接求导之后等于0,求极值,这个方程是超越方程,没有解析解。事实上人类能解的方程很少的。即使是最简单的多项式方程来说,大于等于5次的,都没有解析解求解( Abel–Ruffini theorem),更别说类似什么sigmoid套sigmoid套sigmoid之类的这种方程了。

  2. 最简单一些的网络,比方说前向的,激活函数是relu。由于relu是分段线性函数,前向推断可以是分段线性函数。这个时候假如loss又是l2 loss啊,l1 loss啊这类简单的,确实可以求解析解。但是要考虑的是规模。比方说,一共2层神经元,每层2个,ok,那就是16段线性( 2 2 × 2 = 16 2^{2\times2}=16 2

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值