归一化原理是二维logist回归拓展到多维,原理不用深究了。
交叉熵损失
我们希望分类器预测分布和真实分布越接近越好。
思考:如果不采用one-hot编码,能用交叉熵计算相对熵吗?
损失函数(softmax与交叉熵)
最新推荐文章于 2024-05-13 20:32:49 发布
归一化原理是二维logist回归拓展到多维,原理不用深究了。
交叉熵损失
我们希望分类器预测分布和真实分布越接近越好。
思考:如果不采用one-hot编码,能用交叉熵计算相对熵吗?