说说 sigmod、softmax 那些事儿

一、共同点

1、取值范围都是0~1区间,表示概率,概率自然是这个取值范围

2、都可以用来作为分类任务的输出层函数

二、不同点

1、sigmod作为输出层函数时解决的二分类任务,输出值是一个小数;除此之外可以用作隐层的激活函数,

     另提一点,激活函数是解释神经网络非线性的核心原因。

2、softmax是二分类任务的推广,用于解决多分类问题,输出值是一组小数,有几类就有几个小数,相加为1。

没有更多推荐了,返回首页

私密
私密原因:
请选择设置私密原因
  • 广告
  • 抄袭
  • 版权
  • 政治
  • 色情
  • 无意义
  • 其他
其他原因:
120
出错啦
系统繁忙,请稍后再试

关闭