代价函数


Keras笔记 -- objective

Caffe中的各种loss函数适合哪些问题?

神经网络Loss损失函数总结


cross entropy

交叉熵代价函数

交叉熵损失函数


两种交叉熵损失函数的异同

Multinomial Logistic Loss and Cross Entropy Loss are the same

caffe SigmoidCrossEntropyLossLayer 理论代码学习



softmax

UFDL-softmax loss

caffe中sigmoid cross entorpy loss的计算

caffe层解读系列-softmax_loss

softmax代价函数的导数计算

Softmax vs. Softmax-Loss: Numerical Stability

caffe中带权重的softmaxloss实现(一)

https://github.com/shicai/Weighted_Softmax_Loss

caffe源码分析:softmax_layer.cpp && softmax_loss_layer.cpp

softmax函数



hinge loss

caffe层解读系列——hinge_loss

caffe中HingeLossLayer层原理以及源码分析


损失函数(Loss Function) -1




人脸识别:PairLoss

triplet loss 原理以及梯度推导

triplet loss layer原理

如何在caffe中增加layer以及caffe中triplet loss layer的实现

Triplet Loss、Coupled Cluster Loss 探究

在 caffe 中添加 FaceNet 中 Triplet Loss Layer

在caffe 中添加Scale-invariant loss



center loss

ECCV16 Center Loss及其在人脸识别中的应用

【Technical Review】ECCV16 Grid Loss及其在人脸检测中的应用

CenterLoss——实战&源码


tensorflow center loss代码注释

TensorFlow实现center loss



contrastive loss

Contrastive Loss (对比损失)

contrastive loss function (papers)



损失层及其参数设置

【Caffe实践】损失函数解析

Caffe中Loss Layer原理的简单梳理



joint loss function

多任务深度学习(MultiTask Learning)

一箭N雕:多任务深度学习实战

https://github.com/ycszen/TensorFlowLaboratory



tf.nn.softmax_cross_entropy_with_logits的用法

 

TensorFlow四种Cross Entropy算法实现和应用

TensorFlow损失函数专题



  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值