(笔记)logistic回归

  logistic回归不是线性回归,线性回归是一种预测算法,logistic回归是一种分类算法。什么是回归,如果存在一些数据点,用一条直线对数据进行拟合,这个拟合的过程就叫做回归。logistic回归就是根据数据的边界建立回归方程以此来进行分类。logistic回归算法训练分类器就是寻找最佳拟合参数。

Sigmoid函数

  

当x取值为0的时候 函数的值为0.5 ,当x变大是 函数值趋近与1,当x减小是函数值趋近与0.

可以利用如下公式 y = w0x0+ w1x1+w2x+.......wnx将n个特质值每一个都乘以一个对应的系数,将相得到值带入Sigmoid函数 大于0.5 的归为一类 小于0.5的归为一类。我们需要求得这一组w系数,使之乘以特质值之后代入sigmoid函数 输出正确的分类的结果。在这里需要用到梯度上升法。

梯度上升法

假如有函数 f(x,y), 那么有该函数的的剃度,也就是沿x方向移动, 沿y的方向移动 。当我们的n个特征乘以对应的系数w之后,

带入sigmoid函数之后输出值与实际值做比较,得到的差值作为方向,一次类推N条数据的差值向量,将数据的每一类特征与这个差值向量矩阵相乘 ,得到系数矩阵w对应的每一个元素应该增大,还是减小

w是系数矩阵 ,是步长,转置特征矩阵 (Y-y)实际值与输出值得差值矩阵。循环迭代上面的公式得到最后系数矩阵。

#梯度上升法
def gradAscent(dataMatIn, classLabels):
    dataMatrix = mat(dataMatIn)        #输入数据转换为矩阵
    labelMat = mat(classLabels).transpose() #将1*n的标签数组转换为n*1的矩阵
    m,n = shape(dataMatrix)
    alpha = 0.001
    maxCycles = 500 #权重循环迭代次数
    weights = ones((n,1)) #初始化权重为1
    for k in range(maxCycles):             
        h = sigmoid(dataMatrix*weights)    
        error = (labelMat - h)              #标签矩阵差
        weights = weights + alpha * dataMatrix.transpose()* error #权重迭代
    return weighs

 

总结

logistic回归的目的就是得到一个sigmoid函数的最佳拟合参数,求解这个最佳拟合参数的方法,可以可以采用梯度上升法。

转载于:https://www.cnblogs.com/FMS-Shaw/p/8947843.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
二分类Logistic回归模型是一种用于解决离散值分类问题的回归模型。它通过将线性模型的输出值通过Sigmoid函数映射到0到1之间的概率值,来进行分类。具体而言,Logistic回归模型使用回归系数对输入特征进行加权求和,并将结果通过Sigmoid函数进行转换,得到样本属于正类的概率。如果概率大于0.5,则将样本分类为正类,否则分类为负类。\[1\]\[3\] 在Logistic回归模型中,我们使用梯度下降算法来求解最优的回归系数。梯度下降算法的伪代码如下: 1. 初始化每个回归系数为1。 2. 重复R次: a. 计算整个数据集的梯度。 b. 使用学习率alpha乘以梯度来更新回归系数的向量。 3. 返回更新后的回归系数。\[2\] 在测试阶段,我们可以使用权重w对样本x进行分类。通过将样本特征与回归系数相乘并经过Sigmoid函数,得到样本属于正类的概率。如果概率大于0.5,则将样本分类为正类,否则分类为负类。\[3\] #### 引用[.reference_title] - *1* [小白的机器学习笔记(八)----Logistic回归处理二分类](https://blog.csdn.net/qq_41641805/article/details/81514851)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [机器学习(五)logistic回归进行二分类以及多分类(Python代码)](https://blog.csdn.net/m0_52043037/article/details/128223158)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值