KAN学习笔记

本文介绍了Kolmogorov-ArnoldNetworks(KANs),一种新型神经网络架构,其独特之处在于在权重而非神经元上使用可学习的激活函数。KANs展示了在数据拟合和PDE求解方面的优势,但深度扩展面临挑战,因为现有的理论仅适用于两层结构。
摘要由CSDN通过智能技术生成
KAN学习笔记

这篇论文介绍了一种新型的神经网络架构——Kolmogorov-Arnold Networks(KANs),它是由Kolmogorov-Arnold表示定理启发而来,**旨在作为多层感知器(MLPs)的有前途的替代品。KANs的核心特点是在网络的边缘(即权重)上拥有可学习的激活函数,而不是像传统的MLPs那样在节点(即神经元)上使用固定的激活函数。**这些激活函数由一元函数(univariate functions)组成,每个权重参数被一个作为样条(spline)参数化的一元函数所替代。论文展示了KANs在准确性和可解释性方面相较于MLPs的优势。

1.mlp在节点(“神经元”)上有固定的激活函数,而kan在边缘(“权重”)上有可学习的激活函数。kan根本没有线性权重——每个权重参数都被参数化为样条的单变量函数所取代。
在这里插入图片描述

2.KANs可以很好地学习组合结构和单变量函数。

1)无固定激活函数:与传统MLP在节点上使用固定的激活函数(如ReLU、Sigmoid等)不同,KAN模型的激活函数是可学习的,并且放置在网络的边缘(即权重)上。
2)激活函数的参数化:KAN中的每个激活函数由一个一元函数(univariate function)组成,这些函数被参数化为B样条(B-spline)曲线。这意味着每个权重参数不再是一个单一的数值,而是一个函数。
在这里插入图片描述

3.kan在数据拟合和PDE求解方面比mlp更准确。
4.如前所述,这样的网络被认为太简单,无法在实践中任意地用光滑样条近似任何函数!因此,我们将我们的KAN概括为更广泛和更深。目前还不清楚如何使KANs更深,因为Kolmogorov-Arnold表示对应于两层的KANs。据我们所知,目前还没有一个“一般化”版本的定理对应于更深层次的KANs。

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值