一、Softmax分类器(区别于SVM)
在Softmax分类器中,评分函数保持不变,但是这些评分被视为每个分类的未归一化的对数概率,
损失函数变为cross-entropy loss:
被称作softmax函数,输入为一个评分值的向量f,输出为0~1的压缩值,含义是给定图像数据xi,以W为参数,分配给正确分类标签yi的归一化概率,所有元素和为1
一、Softmax分类器(区别于SVM)
在Softmax分类器中,评分函数保持不变,但是这些评分被视为每个分类的未归一化的对数概率,
损失函数变为cross-entropy loss:
被称作softmax函数,输入为一个评分值的向量f,输出为0~1的压缩值,含义是给定图像数据xi,以W为参数,分配给正确分类标签yi的归一化概率,所有元素和为1