探索MATLAB深度学习

GUI 中的三个主要框是算法、进度和绘图。 在算法下,我们有

Data division - 数据划分将数据划分为训练、测试和验证集。 “随机”表示三个类别之间的划分是随机进行的。

Training - 这显示了要使用的培训方法。

Performance - 这表示均方误差用于确定网络的工作情况。 可以使用其他方法,例如最大绝对误差。 均方很有用,因为误差随着偏差的平方增长,这意味着大误差的权重更大。

Calculations - 这表明计算是通过 MEX 文件完成的,即在 C 或 C 程序中

在长时间的训练过程中观看 GUI 的进度很有用。 我们在最后看到它。

Epoch - 说使用了五个历元。 范围是 0 到 1000 个历元。

Time - 为您提供训练期间的时钟时间。

Performance - 显示训练期间的 MSE 性能。

Gradient - 这显示了前面讨论过的显示训练速度的梯度。

Mu - Mu是训练神经网络的控制参数

Validation checks - 显示没有验证检查失败。

最后一部分是绘图。 我们可以研究四个图示来理解这个过程。

图2 显示了作为 epoch 函数的训练性能。 均方误差是标准。 测试、验证和训练集有自己的线路。在本次训练中,所有的值都相同。

图3 显示了作为 epoch 函数的训练状态。 使用了五个历元。 标题显示了每个图中的最终值。 上图显示了梯度的进展。 它随着每个历元而减少。 下图显示 mu 随 epoch 线性下降。 下图显示训练期间没有验证失败。

图 4 给出了训练直方图。 这显示了其中一组在 x 轴上显示错误值时的实例数。 条形分为训练集、验证集和测试集。 x 轴上的每个数字都是一个箱。 在这种情况下,只有三个箱被占用。 直方图显示训练集比测试或验证集更多。

图5 给出了训练回归。 有四个子图:一个用于训练集,一个用于验证集,一个用于测试集,一个用于所有集。 只有两个目标,0 和 1。

在这种情况下,线性拟合不会提供太多信息,因为我们只能对两个点进行线性拟合。 绘图标题说我们在 5 个 epochs 后达到了最小梯度,也就是说,在所有情况都通过了 5 次训练之后。 图例显示了数据、拟合以及与该系统中的线性相同的 Y=T 图。

输入>> net = feedforwardnet(2);创建了非常灵活和复杂的神经网络数据结构。 “2”表示一层中有两个神经元。 如果我们想要两层,每层有两个神经元,我们会输入>> net = feedforwardnet([2 2]);我们创建了 600 个训练集。 net = configure(net, x, y);配置网络。 configure 函数确定来自 x 和 y 数组的输入和输出的数量。网络使用 net = train(net,x,y); 进行训练。 并用 c = sim(net,[a;b]); 模拟。 我们从单元阵列 net.IW、net.LW 和 net.b 中提取权重和偏置。 “I”代表输入,“IW”代表层。 输入是从单个输入节点到两个隐藏节点,层是从两个隐藏节点到一个输出节点。

现在训练集是从真值表中随机创建的。 您可以多次运行此脚本,通常会得到正确的结果,但并非总是如此。 这是一个运行良好的示例。

详情参阅 - 亚图跨际

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值