loss 函数:
深度 学习 的 目标, 通过调整 w,b 参数, 得到一个 更小的 loss
caffe 中的 loss 在Forward阶段产生
在SoftmaxWithLoss
函数中, top blob 是一个 常数(shape 1*1*1*1), 通过 计算 一个mini-batch上的 平均loss得到(每个loss 通过predict 和实际的 label 计算 )。
loss 函数:
深度 学习 的 目标, 通过调整 w,b 参数, 得到一个 更小的 loss
caffe 中的 loss 在Forward阶段产生
在SoftmaxWithLoss
函数中, top blob 是一个 常数(shape 1*1*1*1), 通过 计算 一个mini-batch上的 平均loss得到(每个loss 通过predict 和实际的 label 计算 )。