逻辑回归 sigmod作用 三种多分类方式 softmax回归 onevsone onevsall 极大似然估计

还有就是从线性到非线性

对于二分类任务,似然函数是  整合之后的函数的累乘,例如档y=0时,如果预测值越接近于0,则最后的值会更大。所以如下图所说的是要求最大值。

 

似然函数就是把一个batch中所有的样本数据的

整合前以及整合后(带入y的值),整合是为了方便展示

似然函数就是一个用来描述 斯塔 参数和x数据进行组合之后,求出的值与真实值之间误差大小的函数,一个关于 斯塔 的函数

下面的xi指的是多个不同个体的数据

其实就是不同个体数据x的情况下求出的y值,然后这个y值经过sigmod之后对应了一个概率值

 

https://blog.csdn.net/zhishengqianjun/article/details/75303820

推导公式出来之后发现 斯塔j 的偏导数只跟xij相关,其中xi指的是不同个体的数据,xij是指不同个体中第j个变量的值,对应就是跟 斯塔j 相乘的那个值

多分类情况下:也是将所有的值

累乘起来,最后值越大越好(只看大括号里面的那部分)

逻辑回归和线性回归之间的差别:其实就是在线性回归的基础上加上了一个sigmod,将线性回归的值变成了概率值

 

另外关于多分类:

第三者就是softmax分类

 

 

最后附上别人讲的不错的文章参考

https://blog.csdn.net/programmer_wei/article/details/52072939

https://blog.csdn.net/wangran51/article/details/8892923

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值