代价函数在有些地方也称损失函数,目前常用的几种代价函数有二次代价函数、交叉熵代价函数、对数释然函数等。
二次代价函数为基本的用来计算结果与预测值之间的差异。
交叉熵代价函数可以解决二次函数导致学习慢问题
对数释然函数常用来作为softmax回归的代价函数,如果输出层神经元是sigmoid函数,可以采用交叉熵代价函数。而深度学习中更普遍的做法是将softmax作为最后一层,此时常用的代价函数是对数释然代价函数
Juyin@2017/12/1
代价函数在有些地方也称损失函数,目前常用的几种代价函数有二次代价函数、交叉熵代价函数、对数释然函数等。
二次代价函数为基本的用来计算结果与预测值之间的差异。
交叉熵代价函数可以解决二次函数导致学习慢问题
对数释然函数常用来作为softmax回归的代价函数,如果输出层神经元是sigmoid函数,可以采用交叉熵代价函数。而深度学习中更普遍的做法是将softmax作为最后一层,此时常用的代价函数是对数释然代价函数
Juyin@2017/12/1