Logistic回归最后一层是sigmoid
Softmax回归最后一层是softmax:
Logistic回归
主要应用于二分类问题,回归问题的表达式: , 将得到的y值经过sigmoid函数转化为二分类问题.
表示y=1的概率,
其中
单个样本的概率分布:
m个样本的概率分布 --> 似然函数:
对数似然函数:
损失函数:
二分类交叉熵损失:
多分类交叉熵损失:
Ref:多分类的交叉熵和二分类的交叉熵有什么联系? - 知乎
对数损失函数:就是把所有二分类交叉熵损失取均值。
Ref:https://blog.csdn.net/qq_38625259/article/details/88371462
深入理解交叉熵损失/对数损失:深入理解交叉熵 / 对数损失 - 知乎
Softmax回归
softmax 回归主要解决的是K分类的问题, 向量 将样本分为第一类和其他; 向量 将剩余的样本分为第二类和其他.... 实际应该是一个 n*k 的二维矩阵,由k个列向量组成,转置后QT就是k*n的 (下图中的应该是QT=二维矩阵),能够将样本分成k类,QT乘以x 其实就是分别从Q中抽取出第k个行向量然后转置乘以x,然后计算得到样本的概率分布。
单个样本的概率分布:
下式中 得到的是一个k维列向量,元素分别表示该样本属于每一类的概率
损失函数:
下面应该是K个列向量组成Qk