多类别分类
损失函数
缺陷:
无法进行梯度下降
没有考虑模型对应的confidence
更合理的损失函数
利用损失函数得到sample被分到每一类对应的可能性
Softmax对应的优点:
所有类别的得分对应的权重都大于等于0,而且总和等于1,我们可以将得分转化为概率分布值。
Cross entropy is minus log of the predicted class probability for the true class.
小作业: 计算 【1,,2,0.5】对应的权值
#!/usr/bin/env python
# coding=utf-8
from math import *
def softmax(array):
total =sum((exp(ele)) for ele in array)
return [exp(ele)/total for ele in array]
if __name__=='__main__':
array = [1,-2,0.5]
print(softmax(array))