matlab cnn 局部最大值,Matlab实现CNN(一)

Matlab实现CNN(一)

发布时间:2018-05-20 15:15,

浏览次数:983

, 标签:

Matlab

CNN

卷积神经网络CNN是深度学习的一个重要组成部分,由于其优异的学习性能(尤其是对图片的识别)。近年来研究异常火爆,出现了很多模型LeNet、Alex

net、ZF

net等等。由于大多高校在校生使用matlab比较多,而网上的教程代码基本都基于caffe框架或者python,对于新入门的同学来说甚是煎熬,所以本文采用matlab结合MNIst手写数据库完成对手写数字的识别。本人水平有限,如有纰漏,还望各路大神,帮忙指正。

一、卷积网络原理

1、动机

卷积神经网络(CNN)是多层感知机(MLP)的一个变种模型,它是从生物学概念中演化而来的。从Hubel和Wiesel早期对猫的视觉皮层的研究工作,我们知道在视觉皮层存在一种细胞的复杂分布,,这些细胞对于外界的输入局部是很敏感的,它们被称为“感受野”(细胞),它们以某种方法来覆盖整个视觉域。这些细胞就像一些滤波器一样,它们对输入的图像是局部敏感的,因此能够更好地挖掘出自然图像中的目标的空间关系信息。

此外,视觉皮层存在两类相关的细胞,S细胞(Simple Cell)和C(Complex

Cell)细胞。S细胞在自身的感受野内最大限度地对图像中类似边缘模式的刺激做出响应,而C细胞具有更大的感受野,它可以对图像中产生刺激的模式的空间位置进行精准地定位。

视觉皮层作为目前已知的最为强大的视觉系统,广受关注。学术领域出现了很多基于它的神经启发式模型。比如:NeoCognitron [Fukushima],

HMAX [Serre07] 以及本教程要讨论的重点 LeNet-5 [LeCun98]。

2、稀疏连接

CNNs通过加强神经网络中相邻层之间节点的局部连接模式(Local Connectivity

Pattern)来挖掘自然图像(中的兴趣目标)的空间局部关联信息。第m层隐层的节点与第m-1层的节点的局部子集,并具有空间连续视觉感受野的节点(就是m-1层节点中的一部分,这部分节点在m-1层都是相邻的)相连。可以用下面的图来表示这种连接。

假设,m-1层为视网膜输入层(接受自然图像)。根据上图的描述,在m-1层上面的m层的神经元节点都具有宽度为3的感受野,m层每一个节点连接下面的视网膜层的3个相邻的节点。m+1层的节点与它下面一层的节点有着相似的连接属性,所以m+1层的节点仍与m层中3个相邻的节点相连,但是对于输入层(视网膜层)连接数就变多了,在本图中是5。这种结构把训练好的滤波器(corresponding

to the input producing the strongest

response)构建成了一种空间局部模式(因为每个上层节点都只对感受野中的,连接的局部的下层节点有响应)。根据上面图,多层堆积形成了滤波器(不再是线性的了),它也变得更具有全局性了(如包含了一大片的像素空间)。比如,在上图中,第m+1层能够对宽度为5的非线性特征进行编码(就像素空间而言)。

3、权值共享

在CNNs中,每一个稀疏滤波器hi在整个感受野中是重复叠加的,这些重复的节点形式了一种特征图(feature

map),这个特种图可以共享相同的参数,比如相同的权值矩阵和偏置向量。

在上图中,属于同一个特征图的三个隐层节点,因为需要共享相同颜色的权重, 他们的被限制成相同的。在这里,

梯度下降算法仍然可以用来训练这些共享的参数,只需要在原算法的基础上稍作改动即可。共享权重的梯度可以对共享参数的梯度进行简单的求和得到。

二、网络的分析

上面这些内容,基本就是CNN的精髓所在了,下面结合LeNet做具体的分析。

结构图:

LeNet算上输入输出一共为八层,下面逐层分析。

第一层:数据输入层

CNN的强项在于图片的处理,lenet的输入为32*32的矩阵图片。这里需要注意的点:

1、数据的归一化,这里的归一化是广义的,不一定要归到0-1,但要是相同的一个区间范围,一般我们的灰度图为0-255。

2、数据的去均值,如果样本有非零的均值,而且与测试部分的非零均值不一致,可能就会导致识别率的下降。当然这不一定发生,我们这么做是为了增加系统的鲁棒性。

第二层:卷积层c1

卷积层是卷积神经网络的核心

,通过不同的卷积核,来获取图片的特征。卷积核相当于一个滤波器,不同的滤波器提取不同特征。打个比方,对于手写数字识别,某一个卷积核提取‘一’,另一个卷积核提取‘|’,所以这个数字很有可能就判定为‘7’。当然实际要比这复杂度得多,但原理大概就是这个样子。

第三层:pooling层

基本每个卷积层后边都会接一个pooling层,目的是为了降维。一般都将原来的卷积层的输出矩阵大小变为原来的一半,方便后边的运算。另外,pooling层增加了系统的鲁棒性,把原来的准确描述变为了概略描述(原来矩阵大小为28*28,现在为14*14,必然有一部分信息丢失,一定程度上防止了过拟合)。

第四层:卷积层

与之前类似,在之前的特征中进一步提取特征,对原样本进行更深层次的表达。注意:这里不是全连接。这里不是全连接。这里不是全连接。X代表连接,空白代表不连。

第五层:pooling层

与之前类似。

第六层:卷积层(全连接)

这里有120个卷积核,这里是全连接的。将矩阵卷积成一个数,方便后边网络进行判定。

第七层:全连接层

和MLP中的隐层一样,获得高维空间数据的表达。

第八层:输出层

这里一般采用RBF网络,每个RBF的中心为每个类别的标志,网络输出越大,代表越不相似,输出的最小值即为网络的判别结果。

三、卷积网络的BP训练

前面的都很好理解,卷积神经网络的难度在于BP过程。网上zouxy09的博文写的很好,可以看一下,自己搞明白。传送门:CNN的BP推导

四、代码部分

关于MNIST数据集,网上有很多现成的代码对其进行提取,但提取出来的都是乱序的很不利于使用。这里有提取好的分类后的,详情传送门

简单起见,我们的代码选用一层卷积层。

CNN_simple_mian.m

%%% matlab实现LeNet-5 %%% 作者:xd.wp %%% 时间:2016.10.22 14:29 %% 程序说明 % 1

、池化(pooling)采用平均2*2 % 2、网络结点数说明: % 输入层:28*28 % 第一层:24*24(卷积)*20 % tanh % 第二层:12*

12(pooling)*20 % 第三层:100(全连接) % 第四层:10(softmax) % 3、网络训练部分采用800个样本,检验部分采用100个样本

clear all;clc;%% 网络初始化 layer_c1_num=20; layer_s1_num=20; layer_f1_num=100;

layer_output_num=10; %权值调整步进 yita=0.01; %bias初始化 bias_c1=(2*rand(1,20)-ones(1,20

))/sqrt(20); bias_f1=(2*rand(1,100)-ones(1,100))/sqrt(20); %卷积核初始化

[kernel_c1,kernel_f1]=init_kernel(layer_c1_num,layer_f1_num); %pooling核初始化

pooling_a=ones(2,2)/4; %全连接层的权值 weight_f1=(2*rand(20,100)-ones(20,100))/sqrt(20

); weight_output=(2*rand(100,10)-ones(100,10))/sqrt(100); disp('网络初始化完成......');

%% 开始网络训练 disp('开始网络训练......'); for iter=1:20 for n=1:20 for m=0:9 %读取样本

train_data=imread(strcat(num2str(m),'_',num2str(n),'.bmp'));

train_data=double(train_data); % 去均值 % train_data=wipe_off_average(train_data);

%前向传递,进入卷积层1 for k=1:layer_c1_num state_c1(:,:

,k)=convolution(train_data,kernel_c1(:,:,k)); %进入激励函数 state_c1(:,:

,k)=tanh(state_c1(:,:,k)+bias_c1(1,k)); %进入pooling1 state_s1(:,:

,k)=pooling(state_c1(:,:,k),pooling_a); end %进入f1层

[state_f1_pre,state_f1_temp]=convolution_f1(state_s1,kernel_f1,weight_f1);

%进入激励函数for nn=1:layer_f1_num state_f1(1,nn)=tanh(state_f1_pre(:,:,nn)+bias_f1(1

,nn));end %进入softmax层 for nn=1:layer_output_num output(1

,nn)=exp(state_f1*weight_output(:,nn))/sum(exp(state_f1*weight_output)); end %%

误差计算部分 Error_cost=-output(1,m+1); % if (Error_cost

参数调整部分

[kernel_c1,kernel_f1,weight_f1,weight_output,bias_c1,bias_f1]=CNN_upweight(yita,Error_cost,m,train_data,...

state_c1,state_s1,... state_f1,state_f1_temp,... output,...

kernel_c1,kernel_f1,weight_f1,weight_output,bias_c1,bias_f1); end end end

disp('网络训练完成,开始检验......'); count=0; for n=1:20 for m=0:9 %读取样本

train_data=imread(strcat(num2str(m),'_',num2str(n),'.bmp'));

train_data=double(train_data); % 去均值 % train_data=wipe_off_average(train_data);

%前向传递,进入卷积层1 for k=1:layer_c1_num state_c1(:,:

,k)=convolution(train_data,kernel_c1(:,:,k)); %进入激励函数 state_c1(:,:

,k)=tanh(state_c1(:,:,k)+bias_c1(1,k)); %进入pooling1 state_s1(:,:

,k)=pooling(state_c1(:,:,k),pooling_a); end %进入f1层

[state_f1_pre,state_f1_temp]=convolution_f1(state_s1,kernel_f1,weight_f1);

%进入激励函数for nn=1:layer_f1_num state_f1(1,nn)=tanh(state_f1_pre(:,:,nn)+bias_f1(1

,nn));end %进入softmax层 for nn=1:layer_output_num output(1

,nn)=exp(state_f1*weight_output(:,nn))/sum(exp(state_f1*weight_output)); end

[p,classify]=max(output);if (classify==m+1) count=count+1; end fprintf('真实数字为%d

网络标记为%d 概率值为%d \n',m,classify-1,p); end end

init_kernel.m

function [kernel_c1,kernel_f1]=init_kernel(layer_c1_num,layer_f1_num) %% 卷积核初始化

for n=1:layer_c1_num kernel_c1(:,:,n)=(2*rand(5,5)-ones(5,5))/12; end for n=1

:layer_f1_num kernel_f1(:,:,n)=(2*rand(12,12)-ones(12,12)); end end

convolution.m

function [state]=convolution(data,kernel) %实现卷积层操作

[data_row,data_col]=size(data); [kernel_row,kernel_col]=size(kernel);for m=1

:data_col-kernel_col+1 for n=1:data_row-kernel_row+1 state(m,n)=sum(sum(data(m:

m+kernel_row-1,n:n+kernel_col-1).*kernel)); end end end

pooling.m

function state=pooling(data,pooling_a) %% 实现取样层pooling操作 [data_row,data_col]=

size(data); [pooling_row,pooling_col]=size(pooling_a); for m=1

:data_col/pooling_colfor n=1:data_row/pooling_row state(m,n)=sum(sum(data(2*m-1:

2*m,2*n-1:2*n).*pooling_a)); end end end

convolution_f1.m

function [state_f1,state_f1_temp]=convolution_f1(state_s1,kernel_f1,weight_f1)

%% 完成卷积层2操作 layer_f1_num=size(weight_f1,2); layer_s1_num=size(weight_f1,1); %%

for n=1:layer_f1_num count=0; for m=1:layer_s1_num temp=state_s1(:,:

,m)*weight_f1(m,n); count=count+temp;end state_f1_temp(:,:,n)=count; state_f1(:,

:,n)=convolution(state_f1_temp(:,:,n),kernel_f1(:,:,n)); end end

CNN_upweight.m

function [kernel_c1,kernel_f1,weight_f1,weight_output,bias_c1,bias_f1]=

CNN_upweight

(yita,Error_cost,classify,train_data,state_c1,state_s1,state_f1,state_f1_temp,...

output,kernel_c1,kernel_f1,weight_f1,weight_output,bias_c1,bias_f1) %%%

完成参数更新,权值和卷积核 %% 结点数目 layer_c1_num=size(state_c1,3); layer_s1_num=size(state_s1,

3); layer_f1_num=size(state_f1,2); layer_output_num=size(output,2);

[c1_row,c1_col,~]=size(state_c1); [s1_row,s1_col,~]=size(state_s1);

[kernel_c1_row,kernel_c1_col]=size(kernel_c1(:,:,1));

[kernel_f1_row,kernel_f1_col]=size(kernel_f1(:,:,1)); %% 保存网络权值

kernel_c1_temp=kernel_c1; kernel_f1_temp=kernel_f1; weight_f1_temp=weight_f1;

weight_output_temp=weight_output;%% Error计算 label=zeros(1,layer_output_num);

label(1,classify+1)=1; delta_layer_output=output-label; %% 更新weight_output for

n=1:layer_output_num delta_weight_output_temp(:,n)=delta_layer_output(1,n)*

state_f1'; end

weight_output_temp=weight_output_temp-yita*delta_weight_output_temp;%%

更新bias_f1以及kernel_f1 for n=1:layer_f1_num count=0; for m=1:layer_output_num

count=count+delta_layer_output(1,m)*weight_output(n,m); end %bias_f1

delta_layer_f1(1,n)=count*(1-tanh(state_f1(1,n)).^2); delta_bias_f1(1

,n)=delta_layer_f1(1,n); %kernel_f1 delta_kernel_f1_temp(:,:,n)=delta_layer_f1(1

,n)*state_f1_temp(:,:,n);end bias_f1=bias_f1-yita*delta_bias_f1;

kernel_f1_temp=kernel_f1_temp-yita*delta_kernel_f1_temp;%% 更新weight_f1 for n=1

:layer_f1_num delta_layer_f1_temp(:,:,n)=delta_layer_f1(1,n)*kernel_f1(:,:,n);

end for n=1:layer_s1_num for m=1:layer_f1_num

delta_weight_f1_temp(n,m)=sum(sum(delta_layer_f1_temp(:,:,m).*state_s1(:,:,n)));

end end weight_f1_temp=weight_f1_temp-yita*delta_weight_f1_temp; %% 更新 bias_c1

for n=1:layer_s1_num count=0; for m=1:layer_f1_num

count=count+delta_layer_f1_temp(:,:,m)*weight_f1(n,m);end

delta_layer_s1(:,:,n)=count; delta_layer_c1(:,:,n)=kron(delta_layer_s1(:,:,n),

ones(2,2)/4).*(1-tanh(state_c1(:,:,n)).^2); delta_bias_c1(1

,n)=sum(sum(delta_layer_c1(:,:,n)));end bias_c1=bias_c1-yita*delta_bias_c1; %%

更新 kernel_c1 for n=1:layer_c1_num delta_kernel_c1_temp(:,:,n)=rot90

(conv2(train_data,rot90(delta_layer_c1(:,:,n),2),'valid'),2); end

kernel_c1_temp=kernel_c1_temp-yita*delta_kernel_c1_temp;%% 网络权值更新

kernel_c1=kernel_c1_temp; kernel_f1=kernel_f1_temp; weight_f1=weight_f1_temp;

weight_output=weight_output_temp;end

程序运行结果:

检验200个,196个识别正确,4个识别错误。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
求高人解答有关BP神经网络输入训练时出现最大值和最小值-neiqian lun.xls   正在做毕设,训练样本为表格形式,在不同车速和方向盘转角输入给定下的车轮角速度。有400多个训练样本,训练时出现了输入最大最小之相等的情况; p=[0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190     200 210 220 230 240 250 260 270 280 290 300 310 320 330 340 350 360 370 380 0     10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200     210 220 230 240 250 260 270 280 290 300 310 320 330 340 350 360 370 380 390 400    0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190    200 210 220 230 240 250 260 270 280 290 300 310 320 330 340 350 360 370 380 390    400 410 420 430 440 0 10 20 30 40 50 60 70 80 90 100 110 120 130 140    150 160 170 180 190 200 210 220 230 240 250 260 270 280 290 300 310 320 330 340    350 360 370 380 390 400 410 420 430 440 450 0 10 20 30 40 50 60 70 80    90 100 110 120 130 140 150 160 170 180 190 200 210 220 230 240 250 260 270 280    290 300 310 320 330 340 350 360 370 380 390 400 410 420 430 440 450 0 10 20    30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200 210 220    230 240 250 260 270 280 290 300 310 320 330 340 350 360 370 380 390 400 410 420    430 440 450 0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160    170 180 190 200 210 220 230 240 250 260 270 280 290 300 310 320 330 340 350 360    370 380 390 400 410 420 430 440 450 0 10 20 30 40 50 60 70 80 90 100    110 120 130 140 150 160 170 180 190 200 210 220 230 240 250 260 270 280 290 300    310 320 330 340 350 360 370 380 390 400 410 420 430 440 450 0 10 20 30 40    50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200 210 220 230 240    250 260 270 280 290 300 310 320 330 340 350 360 370 380 390 400 410 420 430 440    450 0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180    190 200 210 220 230 240 250 260 270 280 290 300 310 320 330 340 350 360 370 380;   15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15     15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 20     20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20     20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20     25 25 25 25 25 25 25 25 25 25 25 25 25 25 25 25 25 25 25 25     25 25 25 25 25 25 25 25 25 25 25 25 25 25 25 25 25 25 25 25     25 25 25 25 25 30 30 30 30 30 30 30 30 30 30 30 30 30 30 30     30 30 30 30 30 30 30 30 30 30 30 30 30 30 30 30 30 30 30 30     30 30 30 30 30 30 30 30 30 30 30 35 35 35 35 35 35 35 35 35     35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35     35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 40 40 40     40 40 40 40 40 40 40 40 40 40 40 40 40 40 40 40 40 40 40 40     40 40 40 40 40 40 40 40 40 40 40 40 40 40 40 40 40 40 40 40     40 40 40 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45     45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45     45 45 45 45 45 45 45 45 45 50 50 50 50 50 50 50 50 50 50 50     50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50     50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 55 55 55 55 55     55 55 55 55 55 55 55 55 55 55 55 55 55 55 55 55 55 55 55 55     55 55 55 55 55 55 55 55 55 55 55 55 55 55 55 55 55 55 55 55     55 60 60 60 60 60 60 60 60 60 60 60 60 60 60 60 60 60 60 60     60 60 60 60 60 60 60 60 60 60 60 60 60 60 60 60 60 60 60 60]; t=[740.93 738.49 736.11 733.76 731.41 729.01 726.49 723.8 720.86 717.59 713.94 709.81 705.15 699.89 693.98 687.37 679.99 671.79 662.67 652.55    641.37 628.83 614.93 599.54 582.5 563.66 542.85 519.9 494.63 466.87 436.42 403.08 366.64 326.86 283.46 236.15 184.59 128.36 66.968 987.9    984.7 981.43 978.23 975.07 971.91 968.69 965.34 961.78 957.94 953.74 949.11 943.99 938.34 932.12 925.3 917.85 909.7 900.81 891.1 880.48    868.86 856.12 842.15 826.82 810.01 791.61 771.51 749.64 725.89 700.19 672.47 642.61 610.53 576.1 539.16 499.5 456.91 411.17 362.05 309.29      1234.9 1230.9 1226.6 1222.5 1218.4 1214.4 1210.4 1206.3 1202.1 1197.5 1192.7 1187.4 1181.6 1175.3 1168.4 1160.9 1152.8 1144 1134.3 1123.8    1112.3 1099.8 1086 1071.1 1054.7 1036.9 1017.5 996.5 973.81 949.4 923.22 895.22 865.37 833.63 799.93 764.19 726.31 686.17 643.66 598.63    550.96 500.52 447.13 390.51 330.46 1481.9 1477.1 1471.7 1466.4 1461.3 1456.4 1451.5 1446.5 1441.4 1436    1430.2 1423.9 1417 1409.3 1400.9    1391.7 1381.5 1370.3 1358.2 1344.9 1330.5 1314.8 1297.8 1279.3 1259.4 1237.8 1214.7 1189.8 1163.4 1135.3 1105.6 1074.4 1041.6 1007.1 970.93    932.99 893.17 851.37 807.5 761.47 713.18 662.54 609.47 553.88 495.72 434.9 1728.8 1723.2 1716.5 1710 1703.7 1697.7 1691.8 1685.8 1679.6     1672.9 1665.7 1657.7 1648.7 1638.5 1627.1 1614.4 1600.3 1584.9 1567.9 1549.5 1529.5 1508 1484.9 1460 1433.5 1405.3 1375.4 1343.9 1310.8     1276.2 1240.4 1203.2 1164.8 1125.2 1084.3 1042 998.24 952.8 905.55 856.36 805.15 751.88 696.46 638.86 579.01 516.88 1975.8 1969.4 1961.2     1953.1 1945.6 1938.3 1931.2 1923.8 1916.1 1907.6 1898.1 1887.2 1874.7 1860.5 1844.2 1826 1805.5 1783 1758.4 1731.7 1703.1 1672.6 1640.3     1606.1 1570.3 1532.9 1494 1453.7 1412 1369.2 1325.5 1281 1235.8 1190 1143.4 1095.9 1047.4 997.47 946.03 892.87 837.87 780.98 722.17     661.38 598.59 533.76 2222.8 2215.5 2205.5 2195.8 2186.8 2178.2 2169.5 2160.4 2150.5 2139.3 2126.4 2111.3 2093.8 2073.4 2050.1 2023.6 1994     1961.4 1925.9 1888 1847.7 1805.6 1761.7 1716.4 1669.7 1621.9 1573 1523.2 1472.7 1421.8 1370.8 1319.7 1268.6 1217.2 1165.5 1113.2 1060     1005.9 950.4 893.37 834.66 774.2 711.91 647.75 581.79 514.01 2469.8 2461.7 2449.7 2438 2427.4 2417.2  2406.7 2395.3 2382.4 2367.5 2349.8     2329 2304.5 2275.8 2242.8 2205.5 2164.1 2119 2070.8 2019.8 1966.8 1912.1 1856.1 1799.4 1742 1684.2 1626.1 1567.9 1510.2 1453 1396.5     1340.4 1284.7 1229.1 1173.6 1117.6 1061.1 1003.7 945.04 884.96 823.3 759.99 694.98 628.21 559.64 489.36 2716.7 2707.8 2693.5 2679.6 2667.4     2655.4 2642.7 2628.4 2611.6 2591.7 2568 2539.6 2506 2467.1 2422.9 2373.6 2319.8 2262.3 2201.6 2138.6 2073.7 2007.5 1940.4 1872.9 1805.5     1738.3 1671.6 1606 1541.7 1478.9 1417.5 1357.1 1297.5 1238.6 1179.8 1120.9 1061.6 1001.5 940.25 877.67 813.6 748     680.81 611.99 541.5     469.35 2963.7 2953.9 2937.1 2920.7 2906.9 2892.9 2877.5 2859.5 2837.9 2811.9 2780.4 2743.1 2699.8 2650.2 2595 2534.9 2470.9 2403.6 2333.5     2261.2 2187 2111.4 2034.8 1957.7 1880.6 1804.2 1728.5 1654.5 1582.9 1513.9 1447.2 1382.6 1319.4 1257.2 1195.5 1134.1 1072.4 1010.1 946.91]; [pn,minp,maxp,tn,mint,maxt] = premnmx; net=newff,[14,14,1],{'tansig','tansig','purelin'},'trainlm'); net.trainParam.show=5; net.trainParam.epochs=1000; net.trainParam.goal=1e-5; net=init; [net,tr]=train; 源程序如上,求高人告诉该怎么改动。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值