神经网络如何模拟任意函数?

‍点击上方“机器学习与生成对抗网络”,关注星标

获取有趣、好玩的前沿干货!

来源:知乎—jerryjee

地址:https://zhuanlan.zhihu.com/p/396204813

01

概述

神经网络之所以强大,在于它强大的模拟能力。理论上,它可以以无限小的误差模拟任意函数。

也就是说,可以利用神经网络构建任意函数,得到任意算法。

这里使用一些可视化的样例,帮助大家获得一些直观的理解。

02

一元函数的模拟

直线

这个是最简单的情况,我们使用一个不带激活函数的神经元即可模拟。

9e81ae85dbdee8d8d6b8a8c6bb855bf8.png

51a1c45f138a2df66db5cea16688e110.png

通过调整    参数,即可模拟任意直线。

阶跃函数Step Function

782ee711a3f90c46ae044915418e5b9e.png

我们使用一个带Sigmoid激活函数的神经元来模拟。

3dd2c4e60642768bf1e2f8e943ee7eba.png

随着    参数继续增大,神经网络就会逐步逼近该函数。

矩形脉冲函数

e569fa03c784bab6ecd4f8f69130738c.png

我们分成几步来模拟:

1. 使用1个神经元来模拟函数的左半部分。

b9517bb2ddd7d39308201004480cdcdd.png

 76b2df1d9844a0d2114e9ffa020bbf65.png

2. 使用1个神经元来模拟函数的右半部分(上下颠倒)。

fde823aa42e9d60110c11951fec8ae79.png

67d9756e4bb1f94ffc4d4f3e880d26b1.png

3. 再使用一个神经元将前2步的图像进行合成

fe18a8e82cfcbae27e337b6719d7b323.png

607742311886abe96456c16fb0aee9cd.png

得到的结果很好地近似了目标函数。

其它一元函数

利用矩形脉冲函数,我们很容易近似其它任意函数,就像积分原理一样。

196840d3e8f0613550c8f483871c8055.png


03

二元函数的模拟

平面

这个是最简单的情况,我们使用一个不带激活函数的神经元即可模拟。

8efbbec3b1645101400734c9533b420c.png

a8e439112d0948eaa824b347e82d79f1.png

通过调整    参数,即可模拟任意平面。

二元阶跃函数Step Function

9c55bcfa80dfbfc3456b8efe0341d2ef.png

我们使用一个带Sigmoid激活函数的神经元来模拟。

3e769ccac4c42f1a0cf18037bbf34f69.png

二元矩形脉冲函数

da6315e25d1bd0eebc5dcfbb966e5a47.png

与一元函数的情况类似,我们分步实现它:

1. 使用一个神经元来模拟函数的一个边缘

b56e437cb2f9cd2a5de3ce958b5bd1d0.png

 36c7585f0b7ffe5729d2e4a04ac4dc51.png

2. 然后我们可以得到以下函数:

8853aefb09877f4b991ed82ca5ce9391.png

3. 最后,可以合成以下函数

bfebe0dda497696d5bdfaa9649b09515.png

最终的神经网络结构如下图所示:

95bbd2e38b9b7a04efce00a05ecf5f1e.png

其它二元函数

利用二元矩形脉冲函数,我们很容易近似其它任意二元函数,就像积分原理一样。

n元函数的模拟

原理一样,自己想象!

04

问题

我们已经拥有了数字电路以及软件程序算法,为什么还需要神经网络?

构建与数字电路之上的软件程序也可以模拟任意函数,那为什么还要发明人工神经网络呢?

参考软件

更多内容及可交互版本,请参考App:神经网络与深度学习

猜您喜欢:

等你着陆!【GAN生成对抗网络】知识星球!

CVPR 2021专题1:GAN的改进

CVPR 2021 | GAN的说话人驱动、3D人脸论文汇总

CVPR 2021 | 图像转换 今如何?几篇GAN论文

【CVPR 2021】通过GAN提升人脸识别的遗留难题

CVPR 2021生成对抗网络GAN部分论文汇总

经典GAN不得不读:StyleGAN

最新最全20篇!基于 StyleGAN 改进或应用相关论文

超100篇!CVPR 2020最全GAN论文梳理汇总!

附下载 | 《Python进阶》中文版

附下载 | 经典《Think Python》中文版

附下载 | 《Pytorch模型训练实用教程》

附下载 | 最新2020李沐《动手学深度学习》

附下载 | 《可解释的机器学习》中文版

附下载 |《TensorFlow 2.0 深度学习算法实战》

附下载 | 超100篇!CVPR 2020最全GAN论文梳理汇总!

附下载 |《计算机视觉中的数学方法》分享

24a9113182d4c281d0ff21fd220ef800.png

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
函数逼近(Function Approximation )是函数论中的一个重要组成部分,其在数值计算中的作用是十分重要的。运用神经网络进行函数逼近,为函数逼近的发展提供了一条新的思路。 用神经网络函数的逼近有许多优点: 首先,它提供了一个标准的逼近结构及逼近工具,这个工具可以随着隐层个数改变来达到任意精度; 其次,有标准的学习算法用以确定逼近函数的参数,并且这一过程是拟人的,即很好地模拟了人的学习过程;最后,能处理的数据对象十分广泛:适用于大规模的,高度非线性的,不完备的数据处理。 本文以几种典型神经网络为例(BP神经网络Function Approximation 、RBF神经网络www.BoliLib.com Approximation 、正交多项式基函数神经网络、样条基函数神经网络),对基于神经网络函数逼近方法进行了研究。神经网络函数逼近能力受神经元个数、学习率、学习次数和训练目标等因素的影响,因此,在研究过程中,充分运用神经网络的非线性逼近能力,首先对几种用于函数逼近的神经网络的结构及算法进行研究;再针对几种常用函数曲线,如正弦函数、指数函数、对数函数、三角函数等,分别用典型神经网络进行逼近,并对逼近效果进行比较,得到用于函数逼近的神经网络选取规律。所得结论经过实际仿真测试,证明了其有效性。 本文的研究结果对函数逼近的研究具有借鉴意义。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值