matlab与python实现神经网络_Adaline神经网络简单介绍和MATLAB简单实现

Adaline神经网络

Adaline利用了最小二乘法的思想,相较于感知机神经网络,对于数据的线性可分的要求更低一些,可以允许一些异常数据。

上面描述了迭代求解的过程,但是在 x0(k+1) 这里没看懂,如果是更新 θ 应该是 w0(k+1) 才对。应该是PPT有错。

我们来说明下迭代求解需要注意的地方。

首先,将 θ 并入到 w 中去,因为 θ 前面的系数始终是1,所以 x 也多了一列,这一列都是1。

x=[1,x1,x2,⋯,xn]Tw=[θ,w1,⋯,wn]

然后是迭代的结束条件。在代码实现中,是计算 w(k−1) 与 w(k) 之间的差来判断的,如果差很小很小,说明梯度下降很缓慢,也就是快到达极值点了。

MATLAB实现迭代求解

Adaline.m

function [ w, t ] = Adaline( X,step, init_w, init_t )

%ADALINE Summary of this function goes here

% Detailed explanation goes here

% X: data set with label

% f: active function

% step: step size

% init_w:

% init_t:

if nargin < 4

init_t = 0;

end

if nargin < 3

init_w = [];

init_t = 0;

end

if nargin < 2

step = 0.1;

init_w = [];

init_t = 0;

end

label = X(:,end);

data = X(:,1:end-1);

[n_data,n_fea] = size(data);

data = [ones(n_data,1) data];

n_fea = n_fea + 1;

n_w = size(init_w);

if n_w ~= n_fea

init_w = ones(n_fea,1);

n_w = n_fea;

end

w = init_w;

w(1) = init_t;

eps = 1e-6;

while true

for i=1:n_w

dw = (label - data*w)'*data(:,i); new_w(i) = w(i) + step*dw; end if sum((new_w'-w).^2) < eps

break;

else

w = new_w';

end

end

t = w(1,1);

w = w(2:end);

end

demo.m 用于简单测试

clc;

%% create random points for train

c1 = [1 1];

c2 = [3 3];

n_L1 = 50; % number of item with label 1

n_L2 = 20; % number of item with label 2

A = zeros(n_L1,3);

A(:,3) = 1;

B = zeros(n_L2,3);

B(:,3) = -1;

% create random point

for i=1:n_L1

A(i,1:2) = c1 + randn(1,2);

end

for i=1:n_L2

B(i,1:2) = c2 + randn(1,2);

end

% show points

scatter(A(:,1), A(:,2),[],'r');

hold on

scatter(B(:,1), B(:,2),[],'g');

%% training with above points

%AA = [ones(n_L1,1) A];

%BB = [ones(n_L2,1) B];

X = [A;B];

%X = [1 1 1 0 1;1 1 0 1 1;1 1 1 1 -1];

[w, t] = Adaline(X,0.0001);

%[w,t] = Adaline2(X);

%%

% plot the result

A = w(1);

B = w(2);

C = t;

if B==0

%生成100个-C/A放在向量x中.

x=linspace(-C/A,-C/A,100);

%从-A)-(|A|+|B|+|C|)到|A|+|B|+|C|等距离生成100个值放在向量y中.?

y=linspace(-abs(A)-abs(B)-abs(C),abs(A)+abs(B)+abs(C),100);

else

x = linspace(0, 10, 100);

y = -w(1)/w(2) * x;

y = y - 1/w(2)*t;

end

hold on

plot(x,y)

正规化求解

除了迭代求解外,有一种正规化的的方法。这种方法对于不是很大数据集求解是很快的,主要是因为要求矩阵的逆,如果矩阵太大了,求逆将会变得很慢很慢。

Adaline2.m

function [ w, t ] = Adaline2( X )

%ADALINE2 Summary of this function goes here

% Detailed explanation goes here

data = X(:,1:end-1);

label = X(:,end);

[n_data, n_fea] = size(X);

data = [ones(n_data, 1) data];

n_fea = n_fea + 1;

w = pinv(data'*data)*(data'*label);

t = w(1,1);

w = w(2:end);

end

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值