Keras笔记 -- objective

Keras定义了以下几种objective fuction:

(1) mean-squared-error

    def mean_squared_error(y_true, y_pred): 
        return K.mean(K.square(y_pred - y_true), axis=-1)

(2) root-mean-squared-error

    def root_mean_squared_error(y_true, y_pred):
        return K.sqrt(K.mean(K.square(y_pred - y_true), axis=-1))

(3) mean-absolute-error

    def mean_absolute_error(y_true, y_pred):
        return K.mean(K.abs(y_pred - y_true), axis=-1)

(4) mean-absolute-percentage-error

    def mean_absolute_percentage_error(y_true, y_pred):
        diff = K.abs((y_true - y_pred) / K.clip(K.abs(y_true), K.epsilon(), np.inf))
        return 100. * K.mean(diff, axis=-1)

(5) mean-squared-logarithmic-error

    def mean_squared_logarithmic_error(y_true, y_pred):
        first_log = K.log(K.clip(y_pred, K.epsilon(), np.inf) + 1.)
        second_log = K.log(K.clip(y_true, K.epsilon(), np.inf) + 1.)
        return K.mean(K.square(first_log - second_log), axis=-1)

(6) squared-hinge

    def squared_hinge(y_true, y_pred):
        return K.mean(K.square(K.maximum(1. - y_true * y_pred, 0.)), axis=-1)

(7) hinge(max-margin loss)

    def hinge(y_true, y_pred):
        return K.mean(K.maximum(1. - y_true * y_pred, 0.), axis=-1)

(8) categorical-crossentropy

    def categorical_crossentropy(y_true, y_pred):
        '''Expects a binary class matrix instead of a vector of scalar classes.
        '''
        return K.mean(K.categorical_crossentropy(y_pred, y_true), axis=-1)

单分类问题最常用的objective

(9) binary-crossentropy

    def binary_crossentropy(y_true, y_pred):
        return K.mean(K.binary_crossentropy(y_pred, y_true), axis=-1)

可以使网络最后一层的激活函数为sigmoid/tanh, 再将loss设置为此objective,则能够训练multi-label数据集。

(10) poisson

    def poisson(y_true, y_pred):
        return K.mean(y_pred - y_true * K.log(y_pred + K.epsilon()), axis=-1)

(11) cosine-proximity

    def cosine_proximity(y_true, y_pred):
        assert K.ndim(y_true) == 2
        assert K.ndim(y_pred) == 2
        y_true = K.l2_normalize(y_true, axis=1)
        y_pred = K.l2_normalize(y_pred, axis=1)
        return -K.mean(y_true * y_pred, axis=1)

总结

  1. 以上axis=-1/1,即以列为标准计算。

  2. 参数y_true即给定的label,y_pred为网络的输出。

  3. clip函数的作用就是对于给定输入X(n维均可),把其中小于min的值均设置成min,大于max的值均设置成max。可以运行下面的代码实验(numpy和theano的借口都差不多):

    x = np.empty((2,3,4,5))
    print x
    print np.clip(a=x,a_min=2,a_max=4)
    
  4. 对于custom objective函数的定义,以下给出一个例子,直接返回y_pred和y_true的差值:

    def loss():
        return -np.abs(y_pred-y_true)
    

    调用的时候: 
    model.compile(loss=loss(), optimizer=optimizer)

  5. hinge loss相关:



其他几种objectives的用法以后补充

Keras 是一种开源的深度学习框架,可用于在 Python 中构建和训练神经网络模型。1D-CNN 是指一维卷积神经网络。 一维卷积神经网络(1D-CNN)是一种用于处理一维数据的深度学习模型。在文本处理、音频处理和时间序列预测等任务中,1D-CNN 可以有效地捕捉到数据中的局部和全局特征。 Keras 提供了一种简单且易于使用的方式来构建 1D-CNN 模型。首先,我们需要使用 Keras 的 Sequential 模型来初始化一个神经网络模型。然后,我们可以通过添加 Conv1D 层来构建卷积层。Conv1D 层接受一个表示过滤器数量、过滤器大小和激活函数的参数。我们还可以在 Conv1D 层后添加 MaxPooling1D 层来进行下采样,以减少模型参数数量和计算复杂度。最后,我们可以通过添加全连接层和输出层来构建完整的模型。 在训练模型之前,我们需要准备训练数据和标签。对于一维数据,我们可以使用 numpy 数组来表示。然后,我们可以使用 Keras 的 compile 方法来配置模型的优化器、损失函数和评估指标。最后,我们使用 fit 方法对模型进行训练,并传入训练数据和标签。 1D-CNN 的训练过程与其他神经网络模型相似。我们可以使用训练数据来训练模型,并使用验证集来评估模型的性能。在训练完成后,我们可以使用测试集来评估模型在新数据上的性能。 总之,Keras 提供了一种简单且灵活的方式来构建和训练 1D-CNN 模型。通过使用 Keras,我们可以轻松地构建适用于文本、音频和时间序列数据的深度学习模型,实现各种任务的预测和分类。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值