机器学习混淆点
我是小白233
这个作者很懒,什么都没留下…
展开
-
PYQT5基础操作
https://blog.csdn.net/youcans/article/details/120664900原创 2022-05-14 23:08:08 · 96 阅读 · 0 评论 -
softmax与sigmoid与交叉熵损失函数
softmax与sigmoid 引用文章 如上图所示,不同之处: softmax的输出是一个比重,每个输出相加和为1。而sigmoid是将每一个输出做一个非线性映射而已。相同之处: softmax与sigmoid的输出值的大小范围都是[0,1]。 区别就在于softmax是一个针对输出结果归一化的过程,所以很多文献里也称作softmax层;而sigmoid只是一个非线性激活过程,所以一般称为激活函数。 二者公式上也并不是直接归一化的关系: softmax的计算公式为: sigmoid的计算公式为:原创 2022-05-14 16:09:23 · 596 阅读 · 0 评论