一个简单的神经网络例子

来自《老饼讲解神经网络》 :www.bbbdata.com


目录

一.问题与数据

二.确定模型结构与训练算法

三.代码实现

四. 网络预测

五. 获取最终的数学表达式


在本文,展示一个matlab2014实现神经网络的简单例子。

一.问题与数据

数据如下,x1,x2为输入,y为对应的输出,现需要训练一个网络,用x1,x2预测y.

二.确定模型结构与训练算法

我们这里采用的网络结构如下

1:节点个数设置: 输入层、隐层、输出层的节点个数分别为[2 ,3,1]。
2:传递函数设置:隐层( tansig函数)。输出层(purelin函数)。
3:训练方式:trainlm。

则模型结构拓扑图如下:

模型的数学表达式如下:

三.代码实现

 在matlab2014b里写代码:

x1 = [-3,-2.7,-2.4,-2.1,-1.8,-1.5,-1.2,-0.9,-0.6,-0.3,0,0.3,0.6,0.9,1.2,1.5,1.8];% x1:x1 = -3:0.3:2;
x2 = [-2,-1.8,-1.6,-1.4,-1.2,-1,-0.8,-0.6,-0.4,-0.2,-2.2204,0.2,0.4,0.6,0.8,1,1.2]; % x2:x2 = -2:0.2:1.2;
y  = [0.6589,0.2206,-0.1635,-0.4712,-0.6858,-0.7975,-0.8040,...
          -0.7113,-0.5326,-0.2875 ,0,0.3035,0.5966,0.8553,1.0600,1.1975,1.2618];    % y: y = sin(x1)+0.2*x2.*x2;

inputData  = [x1;x2];      % 将x1,x2作为输入数据
outputData = y;            % 将y作为输出数据
setdemorandstream(88888);%指定随机种子,这样每次训练出来的网络都一样。

%使用用输入输出数据(inputData、outputData)建立网络,
%隐节点个数设为3.其中隐层、输出层的传递函数分别为tansig和purelin,使用trainlm方法训练。

net = newff(inputData,outputData,3,{'tansig','purelin'},'trainlm');

%设置一些常用参数
net.trainparam.goal = 0.0001;               % 训练目标:均方误差低于0.0001
net.trainparam.show = 400;                  % 每训练400次展示一次结果
net.trainparam.epochs = 15000;              % 最大训练次数:15000.
[net,tr] = train(net,inputData,outputData); % 调用matlab神经网络工具箱自带的train函数训练网络


simout = sim(net,inputData);                % 调用matlab神经网络工具箱自带的sim函数得到网络的预测值
figure;                                     % 新建画图窗口窗口
t=1:length(simout);
plot(t,y,t,simout,'r')                      % 画图,对比原来的y和网络预测的y

运行后得到训练的图:

四. 网络预测

若果想知道x1=0.5,x2=0.5时的值,可输入

x    =[0.5;0.5];
simy = sim(net,x)

命令窗口输出:

这样,就得到了输入为 [0.5,0.5] 时,y的预测值。

五. 获取最终的数学表达式

实际上训练好的网络net,  就是上面的(1)式的数学函数,
预测的时候可以直接使用神经网络工具箱的 sim(net,x) 函数进行预测,

但如果一定要把这个数学表达式提取出来呢?

以下两张文章都有所介绍:

(1)《 提取神经网络数学表达式 》
(2)《一个BP的完整代码实现》


如果文章帮助到了你,记得点个赞哦,更多文章移步《老饼讲解BP神经网络》。

相关文章

​《BP神经网络梯度推导》

​​​​​​《BP神经网络提取的数学表达式》

《一个BP的完整建模流程》

  • 17
    点赞
  • 119
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
循环神经网络(Recurrent Neural Network,RNN)是一种具有记忆能力的神经网络,适用于处理序列数据。下面是一个简单的循环神经网络例子: 假设我们要建立一个循环神经网络来预测一段文本中的下一个字符。我们可以将每个字符表示为一个独热向量(one-hot vector),然后这些向量作输入序列输入到循环神经网络。 首先,我们需要定义循环神经网络的结构。一个简单的循环神经网络由一个循环层和一个输出层组成。循环层中的每个单元都有一个隐藏状态,用于存储之前的信息。 在每个时间步,循环神经网络会接当前时间步的输入字符向量和上一个时间步的隐藏状态作为输入,并计算当前时间步的隐藏状态。然后,将当前时间步的隐藏状态传递给下一个时间步使用。 最后,我们可以将最后一个时间步的隐藏状态输入到输出层中,通过一个全连接层得到预测的下一个字符。 下面是一个简化的循环神经网络的示意图: ``` 输入字符1 输入字符2 输入字符3 ↓ ↓ ↓ ┌───────┐ ┌───────┐ ┌───────┐ │ │ │ │ │ │ │ 隐藏状态 │←─────│ 隐藏状态 │←─────│ 隐藏状态 │ │ │ │ │ │ │ └───────┘ └───────┘ └───────┘ ↓ ↓ ↓ ┌───────┐ ┌───────┐ ┌───────┐ │ │ │ │ │ │ │ 输出层 │→─────│ 输出层 │→─────│ 输出层 │ │ │ │ │ │ │ └───────┘ └───────┘ └───────┘ ↓ ↓ ↓ 预测字符1 预测字符2 预测字符3 ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

老饼讲解-BP神经网络

请老饼喝杯咖啡

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值