logsoftmax前面为什么没用激活函数
有与没有影响不大吗,难道是这个原因
relu函数好像是判断是否 softmax是比如是衣服的概率有多少 是鞋子的概率有多少 这样排
可以的,相当于你在全连接层的基础上增加了一个relu函数
有点明白了,可能是为了提高计算效率没有加,也没有必要加,都最后一层了,激不激活都不影响求softmax的分布定量描述,少一道计算可能CPU会轻快一些
logsoftmax前面为什么没用激活函数
有与没有影响不大吗,难道是这个原因
relu函数好像是判断是否 softmax是比如是衣服的概率有多少 是鞋子的概率有多少 这样排
可以的,相当于你在全连接层的基础上增加了一个relu函数
有点明白了,可能是为了提高计算效率没有加,也没有必要加,都最后一层了,激不激活都不影响求softmax的分布定量描述,少一道计算可能CPU会轻快一些