使用聚类(K-means)分析方法对骑手进行分类标签定义

什么是聚类分析

        聚类分析的目标就是在相似的基础上收集数据来分类,属于无监督学习。就是通过行为数据,通过算法将相似的人群聚集在一起,形成不带标签的人群簇。再人为的对人群簇进行分析,寻找特征标签。

一、数据构建

        根据骑手的行为数据,可以从 日均活跃时长、工作日/非工作日、高峰期/平峰期、白天/夜间、骑手年龄等 可能存在喜好偏差的行为数据,进行数据构建。

#基础包导入(有很多无关的,懒的删除了,哈哈哈

from sklearn.datasets import load_iris
import xgboost as xgb
from xgboost import plot_importance
from matplotlib import pyplot as plt
from sklearn.model_selection import train_test_split
import pandas as pd
import numpy as np
from sklearn.metrics import accuracy_score
import seaborn as sns

import matplotlib
#指定默认字体
matplotlib.rcParams['font.sans-serif'] = ['SimHei']
matplotlib.rcParams['font.family']='sans-serif'
#解决负号'-'显示为方块的问题
matplotlib.rcParams['axes.unicode_minus'] = False
from pyhive import hive
import os
def presto_read_sql_df(sql):
    conn=prestodb.dbapi.connect(
    host=os.environ['PRESTO_HOST'],
    port=os.environ['PRESTO_PORT'],
    user=os.environ['JUPYTER_HADOOP_USER'],
    password=os.environ['HADOOP_USER_PASSWORD'],
    catalog='hive')
    cur = conn.cursor()
    cur.execute(sql)
    query_result = cur.fetchall() 
    colnames = [part[0] for part in cur.description]
    raw = pd.DataFrame(query_result, columns=colnames,dtype=np.float64)
    return raw


def hive_read_sql_df(sql):
    conn = hive.connect(
        host=os.environ['PYHIVE_HOST'], 
        port=os.environ['PYHIVE_PORT'],
        username=os.environ['JUPYTER_HADOOP_USER'],
        password=os.environ['HADOOP_USER_PASSWORD'],
        auth='LDAP',
        configuration={'mapreduce.job.queuename': os.environ['JUPYTER_HADOOP_QUEUE'],
                       'hive.resultset.use.unique.column.names':'false'})
    raw = pd.read_sql_query(sql,conn)
    return raw

#数据读取(可以用hive,也可以直接读取文件 

df = hive_read_sql_df("""
    

    select 
       * 
    from XXX 



""")
df.to_csv('XXXXX.csv',encoding='gbk',sep=',',index = False)

 #从文件读取数据

# 路径调整 
# print(os.getcwd())
# os.chdir('/home/')
# print(os.getcwd())

data = pd.read_csv('XXXXXX.csv',encoding='gbk')

 #可能会存在部分缺失值导致后续运行报错,先将缺失值进行剔除 

df = data  
df.describe() #数据预览 
print(df.isnull().any()) #缺失值判断 
df.dropna(inplace=True) #删除缺失值 
print(df.isnull().any()) #缺失值判断 
df.describe() #数据预览 
# df = df.query("main_city_tsh_rate > 0.15") #数据筛选
# df = df.drop('age',axis=1)   #删除无关列

_id = df['_id']  #先将dri_id单独存储,在分类后再加回去
td = df.drop('_id',axis=1)   #删除_id列

#数据标准化,避免数据的量纲对分类产生权重影响,对数据进行标准化 

        使用Z分数标准化数据:Z分数_百度百科

#数据标准化处理——z分数: x = (x - x.mean()) /x.std()
 
td.tsh_avg =  (td.tsh_avg -td.tsh_avg.mean()) / td.tsh_avg.std() 

二、超参数K值回归

        K,即K-means聚类产生的结果数,k-means不会自主决定聚类的结果数,需要人为的指定。人为指定通常存在一些误判,可通过手肘法、轮廓系数法进行回归计算,从而选择最优的超参数K。                

2.1手肘法

(由于我的数据量比较大,且有倾向性的希望结果在6-14之间,所以K的范围选择6-14,也可根据自己的需求定义范围) 

# '利用SSE选择k'   选择斜率最小的点作为K 
from sklearn.cluster import KMeans
from sklearn.metrics import silhouette_score
# '利用SSE选择k'
SSE = []  # 存放每次结果的误差平方和
for k in range(6, 15):
    estimator = KMeans(n_clusters = k,max_iter = 10000,random_state = 10) 
    estimator = estimator.fit(x) 
    SSE.append(estimator.inertia_)
    print(k)
X = range(6, 15)
plt.xlabel('k')
plt.ylabel('SSE')
plt.plot(X, SSE, 'o-')
plt.show()

K=10,拐点不是非常显著,但基于我的业务需求,倾向将K定义为10 

2.2轮廓系数法:

# 选择最高点作为K 

Scores = []  # 存放轮廓系数
from sklearn.cluster import KMeans
from sklearn.metrics import silhouette_score
for k in range(6, 15):
    estimator = KMeans(n_clusters = k,max_iter = 10000,random_state = 10) 
    estimator = estimator.fit(x)
    Scores.append(silhouette_score(x, estimator.labels_, metric='euclidean'))
    print(k )
X = range(6, 15)
plt.xlabel('k')
plt.ylabel('轮廓系数')
plt.plot(X, Scores, 'o-')

 这个方法数据量大时巨慢,结果没跑出来(大家可以自己尝试下,选择方法可以参考下图,选择K=3,即轮廓系数最大值,理论可参考原文

 

2.3Gap Statistic 法:

具体可大家再深入,我内网环境没安装成功

from gap_statistic import OptimalK

def gap_statistic_K(data, range_K, pro_num):
    K = np.arange(1, range_K)
    optimalK = OptimalK(n_jobs=1, parallel_backend='joblib')
    n_clusters = optimalK(data, cluster_array=K)
    # Gap values plot
    plt.plot(optimalK.gap_df.n_clusters, optimalK.gap_df.gap_value, linewidth=3)
    plt.scatter(optimalK.gap_df[optimalK.gap_df.n_clusters == n_clusters].n_clusters,
                optimalK.gap_df[optimalK.gap_df.n_clusters == n_clusters].gap_value, s=250, c='r')
    plt.grid(True)
    plt.xlabel('Cluster Count')
    plt.ylabel('Gap Value')
    plt.title('Gap Values by Cluster Count')
    plt.savefig(f'/Users/cecilia/Desktop/K_图片/{pro_num}_gap_values_K.jpg')
    plt.cla()
    # plt.show()

    return n_clusters

三、聚类方法——K-means 

n_clusters = 10 ,即结果为10类

from sklearn.cluster import KMeans
kmeans = KMeans(n_clusters = 10,max_iter = 10000,random_state = 10)    #构建模型
y = kmeans.fit(td)
# y = kmeans.fit(x)
label_pred = y.labels_#获取聚类标签
df['_type'] = label_pred
df.to_csv('result_v4.csv',encoding='gbk',sep=',',index = False)  ##先将结果保存下来
dri_type_cnt = df.groupby('_type').count()._id 

# 画图,plt.bar()可以画柱状图
for i in range(len(dri_type_cnt)):
    plt.bar(i, dri_type_cnt[i])
# 设置图片名称
plt.title("各簇人数")
# 设置x轴标签名
plt.xlabel("簇标签")
# 设置y轴标签名
plt.ylabel("人数")
# 显示
plt.show()

dri_type_mean  = df.groupby('dri_type').mean()
dri_type_mean.to_csv('group_mean_v5.csv',encoding='gbk',sep=',',index = False) ##根据均值寻找人群簇特征 

 k-means会将人群分为10类,根据每个特征值,可以对人群进行标签定义 

四、聚类结果白盒化

        因为算法实现的可解释性较差理解成本高,且容易受特征波动有较大变化;基于用户显著性特征对类群进行白盒规则化。

        即根据人群的特征,将人群标签的定义规则进行明确,根据明确的规则,对人群进行直接的标签划分,便于数据的产出和标签的稳定。(此处可根据人群簇的特征值作为参考,也可结合业务的体感进行判断,或者数据分布进行去尾、去头等,无绝对准确的规则,更多的是业务体感)

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不务正业RD从产品经理转行到数据分析

帮你节约的每一分钟价值都很高!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值