(该图为高斯滤波,可看成卷积一种)
最早接触到“卷积”这一概念,应该是在工程数学中学到傅里叶变换时,可以说是完全懵逼状态。后来在《信号与系统》(参考大神奥本海默那本,一直遗憾没有完整上过这个课)中再次接触,知道了它大概可能的用途,但仍旧是似懂非懂,不明白做这种运算的真正意义何在,只是觉得挺拽的一个玩意。一直到应用卷积神经网络时再次与之相遇,突然发现原来其实没有那么深奥的。但随之而来的疑问是,此“卷积”是否真的是彼“卷积”?好奇心驱使,又去回溯了一下概念,有一点点心得,趁周末梳理一下。
先回到数学领域看看这个概念的形式化定义:
设f(x)与g(x)是R(实数域)上的两个可积函数,作积分:
对所有实数x,上述积分存在,并且随着x的不同,上述积分定义了一个新的函数h(x),这个函数称为f(x)与g(x)的卷积,记为h(x)=(f*g)(x).