softmax回归---sigmoid(1)

介绍softmax之前先讲讲sigmoid:

逻辑回归模型常用的函数:sigmoid函数(用来做二分类)

  • 表达式:f(x)=L/(1+exp-k(x-x0))
  • 其图像:
  • 本质:将一个真值映射到(0,1)之间

softmax函数(用作多分类)

  • 形式:

  • 本质:把一个k维的向量映射为另一个K维向量(该向量元素都在0-1之间),然后可以根据每一个向量元素的大小进行多分类的任务。

来自链接(http://ufldl.stanford.edu/wiki/index.php/Softmax回归

softmax回归是logistics回归在多分类问题上的推广,在多分类问题中,类标签y可以取两个以上的值。

Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字。Softmax回归是有监督的,不过后面也会介绍它与深度学习/无监督学习方法的结合。(译者注: MNIST 是一个手写数字识别库,由NYU 的Yann LeCun 等人维护。http://yann.lecun.com/exdb/mnist/


来自链接(https://www.cnblogs.com/yinheyi/p/6131262.html

 

 

转载于:https://www.cnblogs.com/Lee-yl/p/8484408.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值