Adaline神经网络简单介绍和MATLAB简单实现

Adaline神经网络

Adaline利用了最小二乘法的思想,相较于感知机神经网络,对于数据的线性可分的要求更低一些,可以允许一些异常数据。
这里写图片描述
这里写图片描述
上面描述了迭代求解的过程,但是在 x0(k+1) 这里没看懂,如果是更新 θ 应该是 w0(k+1) 才对。应该是PPT有错。
我们来说明下迭代求解需要注意的地方。
首先,将 θ 并入到 w 中去,因为θ前面的系数始终是1,所以 x 也多了一列,这一列都是1。

x=[1,x1,x2,,xn]Tw=[θ,w1,,wn]

然后是迭代的结束条件。在代码实现中,是计算 w(k1) w(k) 之间的差来判断的,如果差很小很小,说明梯度下降很缓慢,也就是快到达极值点了。

MATLAB实现迭代求解

Adaline.m

function [ w, t ] = Adaline( X,step, init_w, init_t )
%ADALINE Summary of this function goes here
%   Detailed explanation goes here
%   X: data set with label
%   f: active function
%   step: step size
%   init_w:
%   init_t:
    if nargin < 4
       init_t = 0;
    end

    if nargin < 3
        init_w = [];
        init_t = 0;
    end

    if nargin < 2
        step = 0.1;
        init_w = [];
        init_t = 0;
    end
    label = X(:,end);

    data = X(:,1:end-1);
    [n_data,n_fea] = size(data);
    data = [ones(n_data,1) data];
    n_fea = n_fea + 1;

    n_w = size(init_w);
    if n_w ~= n_fea
       init_w = ones(n_fea,1);
       n_w = n_fea;
    end

    w = init_w;
    w(1) = init_t;
    eps = 1e-6;

    while true
        for i=1:n_w
           dw = (label - data*w)'*data(:,i);
           new_w(i) = w(i) + step*dw;
        end
        if sum((new_w'-w).^2) < eps
            break;
        else
            w = new_w';
        end

    end
    t = w(1,1);
    w = w(2:end);
end

demo.m 用于简单测试

clc;

%% create random points for train
c1 = [1 1];
c2 = [3 3];

n_L1 = 50; % number of item with label 1 
n_L2 = 20; % number of item with label 2

A = zeros(n_L1,3);
A(:,3) = 1;
B = zeros(n_L2,3);
B(:,3) = -1;

% create random point
for i=1:n_L1
    A(i,1:2) = c1 + randn(1,2);
end
for i=1:n_L2
    B(i,1:2) = c2 + randn(1,2);
end
% show points
scatter(A(:,1), A(:,2),[],'r');
hold on
scatter(B(:,1), B(:,2),[],'g');

%% training with above points
%AA = [ones(n_L1,1) A];
%BB = [ones(n_L2,1) B];
X = [A;B];
%X = [1 1 1 0 1;1 1 0 1 1;1 1 1 1 -1];
[w, t] = Adaline(X,0.0001);
%[w,t] = Adaline2(X);


%%
% plot the result
A = w(1);
B = w(2);
C = t;
if B==0
    %生成100个-C/A放在向量x中.
    x=linspace(-C/A,-C/A,100);
    %从-A)-(|A|+|B|+|C|)到|A|+|B|+|C|等距离生成100个值放在向量y中.?
    y=linspace(-abs(A)-abs(B)-abs(C),abs(A)+abs(B)+abs(C),100);
else
    x = linspace(0, 10, 100);
    y = -w(1)/w(2) * x;
    y = y - 1/w(2)*t;
end
hold on
plot(x,y)

result

正规化求解

正规化
除了迭代求解外,有一种正规化的的方法。这种方法对于不是很大数据集求解是很快的,主要是因为要求矩阵的逆,如果矩阵太大了,求逆将会变得很慢很慢。

Adaline2.m

function [ w, t ] = Adaline2( X )
%ADALINE2 Summary of this function goes here
%   Detailed explanation goes here

    data = X(:,1:end-1);
    label = X(:,end);

    [n_data, n_fea] = size(X);
    data = [ones(n_data, 1) data];
    n_fea = n_fea + 1;

    w = pinv(data'*data)*(data'*label);

    t = w(1,1);
    w = w(2:end);
end
  • 2
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值