逻辑回归与k-means

本文介绍了逻辑回归作为二分类算法的原理,强调其与线性回归的区别在于损失函数和分类应用。同时,详细阐述了K-Means聚类算法的过程,包括初始化、类别归属和中心点更新,并提到了评估标准——轮廓系数。还讨论了K-Means的局限性及其解决方案。
摘要由CSDN通过智能技术生成

逻辑回归

逻辑回归是以线性回归作为输入,通过sigmoid函数进行二分类的分类算法。
在这里插入图片描述
输出【0.1】的概率值,默认0.5作为阈值。逻辑回归与线性回归的原理相同,但由于是分类问题,损失函数不同,只能通过梯度下降求解。
损失函数:在这里插入图片描述
损失函数的值越小,那么预测类别的准确度越高。
逻辑回归的API:sklearn.linear_modle.LogisticRegression(penalty = ‘l2’,C=1.0)

k-means

k-means是非监督学习。
1、随机设置K个特征空间内的点作为初始的聚类中心
2、对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类
中心点作为标记类别
3、接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平
均值)
4、如果计算得出的新中心点与原中心点一样,那么结束,否则重新进行
第二步过程
k-meansAPI: sklearn.cluster.KMeans(n_cluster = 8,init=‘k-means++’)
这种方法效果的评价指标是轮廓系数sc_i= b_i− a_i/max⁡(b_i,a_i)
对于每个点i 为已聚类数据中的样本 ,b_i 为i 到其它族群的所有样本的平均
距离,a_i 为i 到本身簇的距离平均值,最终计算出所有的样本点的轮廓系数平均值。轮廓系数的值介于【-1,1】,sc_i值越大说明分类效果越好,。
kmeans性能评估API:sklearn.metrics.silhouette_score

缺点:容易收敛到局部最优解————多次随机聚类解决
需要预先设定簇的数量——————(k-means++解决)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值