直观理解万能近似定理(Universal Approximation theorem)

文本是教程"The Universal Approximation Theorem for neural networks" by Michael Nielsen 的笔记。

Universal approximation theorem

为什么MLP可以拟合任意的函数?

我们考虑一个最简单的神经网络,最后一层是sigmoid函数:

在这里插入图片描述

事实上这就是一个线性函数,然后经过sigmoid扭曲为一条曲线,显然,b决定了不同截距,从而导致sigmoid位置发生了平移。类似的,w决定了线的斜率,从而影响sigmoid倾斜程度:

在这里插入图片描述

如果我们将斜率w设置为非常大,那么这个sigmoid函数将成为一个分段函数:

在这里插入图片描述

如果熟悉决策树的话,其实已经可能有同学猜到这个分段函数怎么去近似任意的函数了,其实很直接,我们可以构造很多个不同的分段函数:

然后将他们以某种权重相加,就能得到一条经过两次分段的函数:

在这里插入图片描述

只要我们有足够多的分段函数,并且仔细调整他们相加的权重,我们就能近似任意的函数:
在这里插入图片描述

在多维函数也是类似的,只是变成一种对空间的划分,只要划分足够多,总能近似任意的函数。

参考资料

Pay Attention to What You Need: Do Structural Priors Still Matter in the Age of Billion Parameter Models?

Understanding the Universal Approximation Theorem

The Universal Approximation Theorem for neural networks

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值