matlab神经网络函数(feedforwardnet,fitnet,patternet)

feedforwardnet ():

综述:包含一系列的层次。第一层与网络输入连接。接下来的层次与上一次连接。最后一层产生网络的输出。feedforward网络可以用作输入和输出的映射,只含有一个隐含层的的神经网络可以拟合任意有限的输入输出映射问题。输入的变量有两个可以选择

feedforwardnet(hiddenSizes,trainFcn) 

hiddenSizes

Row vector of one or more hidden layer sizes (default = 10)

trainFcn

Training function (default = 'trainlm')

hiddensizes:指的是隐含层的神经元个数

trainFCn:训练的函数

%---------------------------------------------------
%
指定训练函数
%---------------------------------------------------

% net.trainFcn = 'traingd'; % 梯度下降算法
% net.trainFcn = 'traingdm'; %
动量梯度下降算法
%

% net.trainFcn = 'traingda'; % 变学习率梯度下降算法
% net.trainFcn = 'traingdx'; %
变学习率动量梯度下降算法
%

% (大型网络的首选算法)
% net.trainFcn = 'trainrp'; % RPROP(
弹性BP)算法,内存需求最小
%

% (共轭梯度算法)
% net.trainFcn = 'traincgf'; % Fletcher-Reeves
修正算法
% net.trainFcn = 'traincgp'; % Polak-Ribiere
修正算法,内存需求比Fletcher-Reeves修正算法略大
% net.trainFcn = 'traincgb'; % Powell-Beal
复位算法,内存需求比Polak-Ribiere修正算法略大
%

% (大型网络的首选算法)
%net.trainFcn = 'trainscg'; % Scaled ConjugateGradient
算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多
% net.trainFcn = 'trainbfg'; % Quasi-NewtonAlgorithms - BFGS Algorithm,
计算量和内存需求均比共轭梯度算法大,但收敛比较快
% net.trainFcn = 'trainoss'; % One Step SecantAlgorithm,
计算量和内存需求均比BFGS算法小,比共轭梯度算法略大
%

% (中型网络的首选算法)
%net.trainFcn = 'trainlm'; % Levenberg-Marquardt
算法,内存需求最大,收敛速度最快
% net.trainFcn = 'trainbr'; %
贝叶斯正则化算法
%

% 有代表性的五种算法为:'traingdx','trainrp','trainscg','trainoss','trainlm'

默认情况下神经网络参数:

层数:1、输出输入:1

重点是怎么设置各个参数:

参数的设置和newff的一样,应该是所有网络都可以这样设置。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


具体的可以去这本书上。下载地址

http://pan.baidu.com/share/link?shareid=954059249&uk=1610854122


 


评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值