径向基(Radial Basis Function:RBF)神经网络

前言

径向基函数是一个取值仅仅依赖于离远点的实值函数,也就是   ϕ ( x ) = ϕ ( ∣ ∣ x ∣ ∣ ) \ \phi(x)=\phi(||x||)  ϕ(x)=ϕ(x),或者还可以是任意一点c的距离,c点称为中心点,也就是   ϕ ( x − c ) = ϕ ( ∣ ∣ x − c ∣ ∣ ) \ \phi(x-c)=\phi(||x-c||)  ϕ(xc)=ϕ(xc)。任意一点满足   ϕ ( x ) = ϕ ( ∣ ∣ x ∣ ∣ ) \ \phi(x)=\phi(||x||)  ϕ(x)=ϕ(x)特性的函数都叫做径向基函数,标准的一般使用欧式距离(也叫做欧式径向基函数),尽管其他距离函数也可以,但是最为常用的径向基函数是高斯核函数,形式为   k ( ∣ ∣ x − x c ∣ ∣ ) = e x p ( − ∣ ∣ x − x c ∣ ∣ 2 ) ( 2 ∗ σ ) 2 \ k(||x-x_c||) =\frac {exp(-||x-x_c||^2)}{(2*\sigma)^2}  k(xxc)=(2σ)2exp(xxc2),其中   x c \ x_c  xc
为和函数中心,   σ \ \sigma  σ为函数的宽度参数,控制了函数的径向作用范围。
在这里插入图片描述

RBF神经网络

RBF神经网络的拓扑结果是一种三层前向网络:

  • 第一层:由信号源结点构成,仅起到数据信息传递的作用,对输入信息不进行任何变换。
  • 第二层:隐藏层为高斯函数,对输入的数据进行空间变换。
  • 第三层:输出层的作用函数为线性函数,对隐藏层神经元输出的信息进行线性加权后输出,作为整个神经网络的输出结果。如下图所示。
    在这里插入图片描述
    RBF求解的参数有3个:基函数的中心,方差以及隐藏层到输出层的权重。

RBF 神经网络与BP神经网络的却别

1. 局部逼近核全局逼近:

  • BP神经网络的隐节点采用输入模式与权向量的内积作为激活函数的自变量,而激活函数采用Sigmoid函数。 各调参数对BP网络的输出具有同等地位的影响,因此BP神经网络是对非线性映射的全局逼近
  • RBF神经网络的隐节点采用输入模式与中心向量的距离(如欧式距离)作为函数的自变量,并使用径向基函数(如Gaussian函数)作为激活函数。 神经元的输入离径向基函数中心越远,神经元的激活程度就越低(高斯函数)。RBF网络的输出与部分调参数有关,譬如,一个wij值只影响一个yi的输出(参考上面第二章网络输出),RBF神经网络因此具有 “局部映射” 特性。
    在这里插入图片描述
    所谓局部逼近是指目标函数的逼近仅仅根据查询点附近的数据。而事实上,对于径向基网络,通常使用的是高斯径向基函数,函数图象是两边衰减且径向对称的,当选取的中心与查询点(即输入数据)很接近的时候才对输入有真正的映射作用,若中心与查询点很远的时候,欧式距离太大的情况下,输出的结果趋于0,所以真正起作用的点还是与查询点很近的点,所以是局部逼近;而BP网络对目标函数的逼近跟所有数据都相关,而不仅仅来自查询点附近的数据。
    - 2 中间层的区别
    BP神经网络可以有多个隐藏层,但是RBF只有一个隐藏层
    - 3 训练速度的区别
    使用RBF的训练速度快,一方面是因为隐藏层较少,局部逼近可以简化计算量。对于一个输入x,只有部分神经元会有影响,其他的都近似为0,对应的w的就不用调参了。
    - 4 Poggio和Girosi已经证明,RBF网络是连续函数的最佳逼近,而BP网络不是。
    在这里插入图片描述

RBF神经网络与SVM的区别

SVM等如果使用核函数的技巧的话,不太适应大样本核大的特征数的情况,因此提出了RBF。另外,SVM中的高斯核函数可以看作与每一个输入点的距离,而RBF神经网络对输入点做了一个聚类。RBF神经网络用高斯核函数时,其数据中心C可以是训练样本中的抽样,此时与SVM的高斯核函数是完全等价的,也可以是训练样本集的多个聚类中心,所以他们都是需要选择数据中心的,只不过SVM使用高斯核函数时,这里的数据中心都是训练样本本身而已。
RBF神经网络的kernel核函数:
 
在这里插入图片描述

SVM的kernel核函数:
 
在这里插入图片描述

总结

RBF神经网络是为了解决大部分基于反向传播的多层前馈网络的学习算法必须基于某种非线性优化技术的缺点、计算量大、学习速度慢的问题。RBF通过使用高斯核函数的方法,使得网络由输入到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。网络的权就是可由线性方程租直接解出,从而大大加速学习速度并避免局部极小问题。

代码

RBF Network

RBF-Network interpolation examples

import numpy as np
import matplotlib.pyplot as plt
from RBFN import RBFN

1D interpolation example

# generating data
x = np.linspace(0, 10, 100)
y = np.sin(x)

# fitting RBF-Network with data
model = RBFN(hidden_shape=10, sigma=1.)
model.fit(x, y)
y_pred = model.predict(x)

# plotting 1D interpolation
plt.plot(x, y, 'b-', label='real')
plt.plot(x, y_pred, 'r-', label='fit')
plt.legend(loc='upper right')
plt.title('Interpolation using a RBFN')
plt.show()

在这里插入图片描述

2D interpolation example

# generating dummy data for interpolation
x, y = np.meshgrid(np.linspace(-5, 5, 20), np.linspace(-5, 5, 20))
z = (np.sin(np.sqrt((x - 2.)**2 + (y - 1)**2)) -
     np.sin(np.sqrt((x + 2.)**2 + (y + 4)**2))) / 2.

# fitting RBF-Network with data
features = np.asarray(list(zip(x.flatten(), y.flatten())))
model = RBFN(hidden_shape=70, sigma=1.)
model.fit(features, z.flatten())
predictions = model.predict(features)

# plotting 2D interpolation
figure, (axis_left, axis_right) = plt.subplots(1, 2, figsize=(15, 10), sharey=True)
figure.suptitle('RBF-Network 2D interpolation', fontsize=20)
axis_right.set_title('fit', fontsize=20)
axis_left.set_title('real', fontsize=20)
axis_left.contourf(x, y, z)
right_image = axis_right.contourf(x, y, predictions.reshape(20, 20))
plt.show()

在这里插入图片描述

"""
File: RBFN.py
Author: Octavio Arriaga
Email: arriaga.camargo@email.com
Github: https://github.com/oarriaga
Description: Minimal implementation of a radial basis function network
"""

import numpy as np


class RBFN(object):

    def __init__(self, hidden_shape, sigma=1.0):
        """ radial basis function network
        # Arguments
            input_shape: dimension of the input data
            e.g. scalar functions have should have input_dimension = 1
            hidden_shape: the number
            hidden_shape: number of hidden radial basis functions,
            also, number of centers.
        """
        self.hidden_shape = hidden_shape
        self.sigma = sigma
        self.centers = None
        self.weights = None

    def _kernel_function(self, center, data_point):
        return np.exp(-self.sigma*np.linalg.norm(center-data_point)**2)

    def _calculate_interpolation_matrix(self, X):
        """ Calculates interpolation matrix using a kernel_function
        # Arguments
            X: Training data
        # Input shape
            (num_data_samples, input_shape)
        # Returns
            G: Interpolation matrix
        """
        G = np.zeros((len(X), self.hidden_shape))
        for data_point_arg, data_point in enumerate(X):
            for center_arg, center in enumerate(self.centers):
                G[data_point_arg, center_arg] = self._kernel_function(
                        center, data_point)
        return G

    def _select_centers(self, X):
        random_args = np.random.choice(len(X), self.hidden_shape)
        centers = X[random_args]
        return centers

    def fit(self, X, Y):
        """ Fits weights using linear regression
        # Arguments
            X: training samples
            Y: targets
        # Input shape
            X: (num_data_samples, input_shape)
            Y: (num_data_samples, input_shape)
        """
        self.centers = self._select_centers(X)
        G = self._calculate_interpolation_matrix(X)
        self.weights = np.dot(np.linalg.pinv(G), Y)

    def predict(self, X):
        """
        # Arguments
            X: test data
        # Input shape
            (num_test_samples, input_shape)
        """
        G = self._calculate_interpolation_matrix(X)
        predictions = np.dot(G, self.weights)
        return predictions

  • 8
    点赞
  • 66
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值