神经网络优化器的选择_神经网络:优化器选择的重要性

本文探讨了神经网络中优化器选择的重要性,解释了如何影响模型训练效果,并提供了优化器选择的指导。
摘要由CSDN通过智能技术生成

神经网络优化器的选择

When constructing a neural network, there are several optimizers available in the Keras API in order to do so.

在构造神经网络时,Keras API中提供了多个优化器来实现。

An optimizer is used to minimise the loss of a network by appropriately modifying the weights and learning rate.

优化器用于通过适当修改权重和学习率来最小化网络的损失。

For regression-based problems (where the response variable is in numerical format), the most frequently encountered optimizer is the Adam optimizer, which uses a stochastic gradient descent method that estimates first-order and second-order moments.

对于基于回归的问题(响应变量为数字格式),最常遇到的优化器是Adam优化器,它使用一种随机梯度下降方法来估算一阶和二阶矩。

The available optimizers in the Keras API are as follows:

Keras API中可用的优化器如下:

  • SGD

    新元
  • RMSprop

    RMSprop
  • Adam

    亚当
  • Adadelta

    阿达达
  • Adagrad

    阿达格勒
  • Adamax

    阿达玛克斯
  • Nadam

    那达姆
  • Ftrl

    Ftrl

The purpose of choosing the most suitable optimiser is not necessarily to achieve the highest accuracy per se — but rather to minimise the training required by the neural network to achieve a given level of accuracy. After all, it is much more efficient if a neural network can be trained to achieve a certain level of accuracy after 10 epochs than after 50, for instance.

选择最合适的优化器的目的不一定是要获得最高的准确性,而是要使神经网络为达到给定的准确性而所需的训练降至最低。 毕竟,如果可以训练一个神经网络在10个纪元之后达到一定水平的准确度,比50个纪要高得多。

预测酒店的平均每日房价 (Predicting Average Daily Rates for Hotels)

Let’s illustrate this using an example: predicting average daily rates (ADR) for hotels. This is the output variable.

让我们用一个例子来说明这一点:预测酒店的平均每日房价(ADR) 。 这是输出变量。

The

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值