1 逻辑回归——解决二分类问题的利器
逻辑回归公式
逻辑回归与线性回归原理相同,但由于是分类问题,损失函数不一样,只能通过梯度下降求解
sklearn逻辑回归API
•sklearn.linear_model.LogisticRegression
构造列标签的名字:
column = ['列标签名1','列标签名2', '列标签名3','列标签名4'] # 读取数据 data = pd.read_csv('读取文件网址',names=column)
良/恶性乳腺癌肿分类实例
LogisticRegression总结
应用:广告点击率预测、电商购物搭配推荐
优点:适合需要得到一个分类概率的场景
缺点:当特征空间很大时,逻辑回归的性能不是很好
2 非监督学习——k-means
k-means步骤:
(1)随机设置K个特征空间内的点作为初始的聚类中心
(2)对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类
中心点作为标记类别
(3)接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平
均值)
(4)如果计算得出的新中心点与原中心点一样,那么结束,否则重新进行
第二步过程
k-means API
sklearn.cluster.KMeans
Kmeans性能评估指标
轮廓系数:
Kmeans性能评估指标API
sklearn.metrics.silhouette_score
Kmeans总结
特点分析:
采用迭代式算法,直观易懂并且非常实用
缺点:容易收敛到局部最优解(多次聚类)
需要预先设定簇的数量(k-means++解决)
对30个女装品牌直播数据进行分类
输出: