人体运动状态预测-实例分析

背景介绍 :

• 可穿戴式设备的流行,让我们可以更便利地使用传感器获取人体的各项数据, 甚至生理数据。

• 当传感器采集到大量数据后,我们就可以通过对数据进行分析和建模,通过 各项特征的数值进行用户状态的判断,根据用户所处的状态提供给用户更加 精准、便利的服务。

数据介绍:

• 我们现在收集了来自 A, B, C, D, E 5 位用户的可穿戴设备上的传感器数据, 每位用户的数据集包含一个特征文件 (a.feature) 和一个标签文件 (a.label)。

• 特征文件中每一行对应一个时刻的所有传感器数值,标签文件中每行记录了 和特征文件中对应时刻的标记过的用户姿态,两个文件的行数相同,相同行 之间互相对应。

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

任务介绍

 假设现在出现了一个新用户,但我们只有传感器采集的数据,那么该如何得到 这个新用户的姿态呢?

 又或者对同一用户如果传感器采集了新的数据,怎么样根据新的数据判断当前 用户处于什么样的姿态呢?

在明确这是一个分类问题的情况下,我们可以选定某种分类模型(或者说是
算法),通过使用训练数据进行模型学习,然后对每个测试样本给出对应的分类
结果。

机器学习的分类算法众多,在接下来的学习中我们将会详细介绍经典的分类 算法,如K近邻、决策树和朴素贝叶斯的原理和实现。

基本分类模型:

K近邻分类器(KNN)

KNN:通过计算待分类数据点,与 已有数据集中的所有数据点的距离。取 距离最小的前K个点,根据“少数服从 多数“的原则,将这个数据点划分为出 现次数最多的那个类别。

这里写图片描述

sklearn 中的 K 近邻分类器

在 sklearn 库中,可以使用 sklearn.neighbors.KNeighborsClassifier 创建一个 K 近邻分类器,主要参数有:

• n_neighbors : 用于指定分类器中K的大小(默认值为 5,注意与 kmeans 的区别)

• weights : 设置选中的K个点对分类结果影响的权重( 默认值为平均 权重 “uniform”,可以选择 “distance” 代表越近的点权重越高, 或者传入自己编写的以距离为参数的权重计算函数 )

• algorithm : 设置用于计算临近点的方法,因为当数据量很大的情况
下计算当前点和所有点的距离再选出最近的k各点,这个计算量是很 费时的,所以(选项中有 ball_tree、kd_tree 和 brute,分别代表不 同的寻找邻居的优化算法,默认值为 auto,根据训练数据自动选择)

KNN的使用经验

在实际使用时,我们可以使用所有训练数据构成特征 X 和标签 y,使用 fit() 函数进行训练。在正式分类时,通过一次性构造测试集或者一个一个输入 样本的方式,得到样本对应的分类结果。有关 K 的取值:

• 如果较大,相当于使用较大邻域中的训练实例进行预测,可以减小估计误差,
但是距离较远的样本也会对预测起作用,导致预测错误。

• 相反地,如果 K 较小,相当于使用较小的邻域进行预测,如果邻居恰好是噪

• 一般情况下,K 会倾向选取较小的值,并使用交叉验证法选取最优 K 值。

决策树

决策树是一种树形结构的分类器,通过顺序询问分类点的属性决定分类点最终的类别。通常根据特征的信息增益或其他指标,构建一颗决策树。在分类时,只需要按照决策树中的结点依次进行判断,即可得到样本所属类别。

例如,根据下图这个构造好的分类决策树, 一个无房产,单身,年收入 55K 的人的会被归入无法偿还信用卡这个类别。

这里写图片描述

sklearn 中的决策树

在 sklearn 库中,可以使用 sklearn.tree.DecisionTreeClassifier 创建一个决策树用于分类,其主要参数有:

• criterion : 用于选择属性的准则,可以传入 “gini” 代表基尼 系数,或者 “entropy” 代表信息增益。

• max_features : 表示在决策树结点进行分裂时,从多少个特征 中选择最优特征。可以设定固定数目、百分比或其他标准。它 的默认值是使用所有特征个数。

• 决策树本质上是寻找一种对特征空间上的划分,旨在构建一个训练数据拟合的 好,并且复杂度小的决策树。

• 在实际使用中,需要根据数据情况,调整 DecisionTreeClassifier 类中传入的 参数,比如选择合适的 criterion,设置随机变量等。

朴素贝叶斯

朴素贝叶斯分类器是一个以贝叶斯定理为基础的多分类的分类器。

对于给定数据,首先基于特征的条件独立性假设,学习输入输出的联合概率分布,然后基于此模型,对给定的输入 x,利用贝叶斯定理求出后验概率最大的输出 y。

sklearn 中的朴素贝叶斯

这里写图片描述

在 sklearn 库中,可以使用 sklearn.naive_bayes.GaussianNB 创建一个高斯朴素贝叶斯分类器,其参数有:

• priors : 给定各个类别的先验概率。如果为空,则按训练数据的实际情况 进行统计; 如果给定先验概率,则在训练过程中不能更改。

朴素贝叶斯是典型的生成学习方法,由训练数据学习联合概率分布,并求得
后验概率分布。

朴素贝叶斯一般在小规模数据上的表现很好,适合进行多分类任务。

程序编写

这里写图片描述

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
Created on Sat May 27 07:52:08 2017

@author: xiaolian
"""

import pandas as pd
import numpy as np  

from sklearn.preprocessing import Imputer
from sklearn.cross_validation import train_test_split 
from sklearn.metrics import classification_report

from sklearn.neighbors import KNeighborsClassifier
from sklearn.tree import DecisionTreeClassifier
from sklearn.naive_bayes import GaussianNB

def load_datasets(feature_paths, label_paths):

    feature = np.ndarray(shape = (0, 41))
    label = np.ndarray(shape = (0, 1))

    for file in feature_paths:
        df = pd.read_table(file, delimiter = ',', na_values = '?', header = None)
        #print(df)
        imp = Imputer(missing_values = 'NaN', strategy = 'mean', axis = 0)
        imp.fit(df)
        #print(df)
        df = imp.transform(df)
       # print('df type :', type(df))
        #print(df)
        feature = np.concatenate((feature, df))
        #print('feature')
        #print(feature)

    for file in label_paths:
        df = pd.read_table(file, header = None)
        #print('df :', df)
        label = np.concatenate((label, df))
        #print('label', label)

    label = np.ravel(label)
    #print('label', label)
    return feature, label


if __name__ == '__main__':
    '''data path'''
    featurePaths = ['A/A.feature', 'B/B.feature', 'C/C.feature', 'D/D.feature', 'E/E.feature']
    labelPaths = ['A/A.label','B/B.label', 'C/C.label', 'D/D.label', 'E/E.label']
    load_datasets(featurePaths[:4], labelPaths[:4])

    ''' load data '''
    x_train, y_train = load_datasets(featurePaths[:4],labelPaths[:4])
    x_test, y_test = load_datasets(featurePaths[4:],labelPaths[4:])
    x_train, x_, y_train, y_ = train_test_split(x_train, y_train, test_size = 0.0)

    print('Start training knn')
    knn = KNeighborsClassifier().fit(x_train, y_train)
    print('Training done')
    answer_knn = knn.predict(x_test)
    print('Prediction done')

    print('Start training DT')
    dt = DecisionTreeClassifier().fit(x_train, y_train)
    print('Training done')
    answer_dt = dt.predict(x_test)
    print('Prediction done')

    print('Start training Bayes')
    gnb = GaussianNB().fit(x_train, y_train)
    print('Training done')
    answer_gnb = gnb.predict(x_test)
    print('Prediction done')

    print('\n\nThe classification report for knn:')
    print(classification_report(y_test, answer_knn))
    print('\n\nThe classification report for DT:')
    print(classification_report(y_test, answer_dt))
    print('\n\nThe classification report for Bayes:')
    print(classification_report(y_test, answer_gnb))

这里写图片描述

这里写图片描述

这里写图片描述

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值