在Python中进行基于稳健马氏距离的异常检验

原文地址:https://my.oschina.net/dfsj66011/blog/793392

例如,假设你有一个关于身高和体重的数据框数据:

# -*- coding: utf-8 -*-
import pandas as pd
import numpy as np
from numpy import float64
#身高数据
Height_cm = np.array([164, 167, 168, 169, 169, 170, 170, 170, 171, 172, 172, 173, 173, 175, 176, 178], dtype=float64)
#体重数据
Weight_kg = np.array([54,  57,  58,  60,  61,  60,  61,  62,  62,  64,  62,  62,  64,  56,  66,  70], dtype=float64)
hw = {'Height_cm': Height_cm, 'Weight_kg': Weight_kg}
hw = pd.DataFrame(hw)#hw为矩阵 两列两个变量(身高和体重) 行为变量序号
print hw
	Height_cm  Weight_kg
0       164.0       54.0
1       167.0       57.0
2       168.0       58.0
3       169.0       60.0
4       169.0       61.0
5       170.0       60.0
6       170.0       61.0
7       170.0       62.0
8       171.0       62.0
9       172.0       64.0
10      172.0       62.0
11      173.0       62.0
12      173.0       64.0
13      175.0       56.0
14      176.0       66.0
15      178.0       70.0
将这些点画成散点图,你就可以直观的看到异常点,例如,我们假设与数据中心偏离大于2的即为异常值,则:
import pandas as pd
from sklearn import preprocessing
import numpy as np
from numpy import float64
from matplotlib import pyplot as plt


#scale 数据进行标准化    公式为:(X-mean)/std  将数据按按列减去其均值,并处以其方差   结果是所有数据都聚集在0附近,方差为1。
is_height_outlier = abs(preprocessing.scale(hw['Height_cm'])) > 2 #线性归一化    数据中心的标准偏差与2比较
is_weight_outlier = abs(preprocessing.scale(hw['Weight_kg'])) > 2
is_outlier = is_height_outlier | is_weight_outlier#按位或 表示两个变量中有一位是异常的 本组数据(体重,身高)异常    is_outlier是数组,值为True或False
color = ['g', 'r']
pch = [1 if is_outlier[i] == True else 0 for i in range(len(is_outlier))]#pch是数组,值为1或0,1表示异常点
cValue = [color[is_outlier[i]] for i in range(len(is_outlier))]#颜色数组
# print is_height_outlier
# print cValue
fig = plt.figure()
plt.title('Scatter Plot')
plt.xlabel('Height_cm')
plt.ylabel('Weight_kg')
plt.scatter(hw['Height_cm'], hw['Weight_kg'], s=40, c=cValue)#散点图 s代表图上点大小
plt.show()



注意,身高为175cm的这个数据点(图中右下角)并没有被标记为异常点,它与数据中心的标准偏差低于2,但是从图中直观的发现的它偏离身高、体重的线性关系,可以说它才是真正的离群点。

顺便说一下,上图中尺度的选择可能会有些误导,实际上,身高对体重的影响关系应该让Y轴从0开始,但是我仅仅是想通过这些数据说明异常值的检测,希望你能忽略这个不好的习惯。

下面我们使用马氏距离求解:

#马氏距离检查异常值
# -*- coding: utf-8 -*-
#马氏距离检查异常值,值越大,该点为异常点可能性越大
import pandas as pd
import numpy as np
from numpy import float64
from matplotlib import pyplot as plt
from scipy.spatial import distance
from pandas import Series
from mpl_toolkits.mplot3d  import Axes3D
#身高数据
Height_cm = np.array([164, 167, 168, 168, 169, 169, 169, 170, 172, 173, 175, 176, 178], dtype=float64)
#体重数据
Weight_kg = np.array([55,  57,  58,  56,  57,  61,  61,  61,  64,  62,  56,  66,  70], dtype=float64)
#年龄数据
Age = np.array([13,  12,  14,  17,  15,  14,  16,  16,  13,  15,  16,  14,  16], dtype=float64)
hw = {'Height_cm': Height_cm, 'Weight_kg': Weight_kg, 'Age': Age}#hw为矩阵 三列三个变量(身高、体重、年龄) 行为变量序号
hw = pd.DataFrame(hw)
print len(hw)#13

n_outliers = 2#选2个作为异常点
#iloc[]取出3列,一行    hw.mean()此处为3个变量的数组    np.mat(hw.cov().as_matrix()).I为协方差的逆矩阵    **为乘方
#Series的表现形式为:索引在左边,值在右边
#m_dist_order为一维数组    保存Series中值降序排列的索引
m_dist_order =  Series([float(distance.mahalanobis(hw.iloc[i], hw.mean(), np.mat(hw.cov().as_matrix()).I) ** 2)
       for i in range(len(hw))]).sort_values(ascending=False).index.tolist()
is_outlier = [False, ] * 13
for i in range(n_outliers):#马氏距离值大的标为True
    is_outlier[m_dist_order[i]] = True
# print is_outlier

color = ['g', 'r']
pch = [1 if is_outlier[i] == True else 0 for i in range(len(is_outlier))]
cValue = [color[is_outlier[i]] for i in range(len(is_outlier))]
# print cValue

fig = plt.figure()
#ax1 = fig.add_subplot(111, projection='3d')
ax1 = fig.gca(projection='3d')
ax1.set_title('Scatter Plot')
ax1.set_xlabel('Height_cm')
ax1.set_ylabel('Weight_kg')
ax1.set_zlabel('Age')
ax1.scatter(hw['Height_cm'], hw['Weight_kg'], hw['Age'],  s=40, c=cValue)
plt.show()

上面的代码根据马氏距离(也称广义平方距离)检测离群值得两个极端点。马氏距离可以解决n维空间数据,关于马氏距离的计算公式可参考其他资料,R和Python关于马氏距离求解的包在参数上以及计算结果的含义上略有不同(R计算结果是距离的平方,协方差矩阵默认可自动求逆,而Python计算结果默认就是马氏距离,但是参数中的协方差需自己求逆),这次右下角的点被捕捉到。


你可以通过这种方式移除掉5%的最有可能是异常点的数据

percentage_to_remove = 20    # Remove 20% of points
number_to_remove = round(len(hw) * percentage_to_remove / 100)   # 四舍五入取整
m_dist_order =  Series([float(distance.mahalanobis(hw.iloc[i], hw.mean(), np.mat(hw.cov().as_matrix()).I) ** 2)
       for i in range(len(hw))]).sort_values(ascending=False).index.tolist()

rows_to_keep_index = m_dist_order[int(number_to_remove): ]
my_dataframe = hw.loc[rows_to_keep_index]
print my_dataframe
     Age  Height_cm  Weight_kg
3   17.0      168.0       56.0
1   12.0      167.0       57.0
0   13.0      164.0       55.0
11  14.0      176.0       66.0
6   16.0      169.0       61.0
8   13.0      172.0       64.0
7   16.0      170.0       61.0
5   14.0      169.0       61.0
4   15.0      169.0       57.0
2   14.0      168.0       58.0
9   15.0      173.0       62.0
这种方法通常是很有用的,你可以快速地检查你的分析结果是否受到异常值的影响。你可以先在整个数据集上运行,然后再通过该方法去掉异常值后再分析一遍,若两次有较大的差距,那你就该考虑使用一个更健壮的分析方法了

警告

当你的数据表现出非线性关系关系时,你可要谨慎使用该方法了,马氏距离仅仅把他们作为线性关系处理。,例如下面的例子。

import pandas as pd
from sklearn import preprocessing
import numpy as np
from numpy import float64
from matplotlib import pyplot as plt
from scipy.spatial import distance
from pandas import Series

x = np.array([4,  8, 10, 16, 17, 22, 27, 33, 38, 40, 47, 48, 53, 55, 63, 71, 76, 85, 85, 92, 96], dtype=float64)
y = np.array([6, 22, 32, 34, 42, 51, 59, 63, 64, 69, 70, 20, 70, 63, 63, 55, 46, 41, 33, 19,  6], dtype=float64)
hw = {'x': x, 'y': y}
hw = pd.DataFrame(hw)

percentage_of_outliers = 10    # Mark 10% of points as outliers
number_of_outliers = round(len(hw) * percentage_of_outliers / 100)   # 四舍五入取整
m_dist_order =  Series([float(distance.mahalanobis(hw.iloc[i], hw.mean(), np.mat(hw.cov().as_matrix()).I) ** 2)
       for i in range(len(hw))]).sort_values(ascending=False).index.tolist()

rows_not_outliers = m_dist_order[int(number_of_outliers): ]
my_dataframe = hw.loc[rows_not_outliers]

is_outlier = [True, ] * 21
for i in rows_not_outliers:
    is_outlier[i] = False
color = ['g', 'r']
pch = [1 if is_outlier[i] == True else 0 for i in range(len(is_outlier))]
cValue = [color[is_outlier[i]] for i in range(len(is_outlier))]
fig = plt.figure()
plt.title('Scatter Plot')
plt.xlabel('x')
plt.ylabel('y')
plt.scatter(hw['x'], hw['y'], s=40, c=cValue)
plt.show()


请注意,最明显的离群值没有被检测到,因为要考虑的数据集的变量之间的关系是非线性的。

注意,在多维数据中使用马氏距离发现异常值可能会出现与在一维数据中使用t-统计量类似的问题。在一维的情况下,异常值能很大程度上影响数据的平均数和标准差,t统计量不再提供合理的距离中心度量值。(这就是为什么使用中心和距离的测量总能表现的更好,如中位数和中位数的绝对差,对异常值检测更健壮。可以参考利用绝对中位差发现异常值。)作为马氏距离,类似t统计量,在高维空间中也需要计算标准差和平均距离。






  • 2
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
马氏距离是一种用于测量向量之间的相似度的统计方法。它是基于权重的欧几里得距离,考虑了数据的协方差矩阵。在异常值检测,使用马式距离可以将未知样本与已知样本的距离进行标准化,从而判断未知样本是否为异常值Python,可以使用scipy库的mahalanobis()函数来计算马式距离。该函数需要提供两个numpy数组x和y,分别表示未知样本和已知样本。 具体操作流程如下: 1. 假设我们有一个含有N个样本的数据集,每个样本包含M个特征值(即M维向量),可以将这个数据集表示为一个NxM的numpy数组X。 2. 我们需要计算X每个样本与其他样本的马式距离,并将其存储在一个N×N的距离矩阵D。 3. 对于每个样本,我们将其与其他样本的距离进行排序,取出其前k个距离。这里的k是一个自定义的参数,可以根据实际情况进行调整。 4. 接下来,我们需要计算每个样本的马式距离得分(即异常值分数)。可以将前k个距离的平均值作为该样本的得分,得分越高表示越有可能是异常值。 5. 最后,我们可以根据设定的阈值来判断哪些样本为异常值。一般情况下,可以将得分高于某一阈值的样本判定为异常值。 在Python,可以使用以下代码进行异常值检测: 1. 导入必要的库和数据集 import numpy as np from scipy.spatial.distance import mahalanobis from sklearn.datasets import load_iris # 加载鸢尾花数据集 iris = load_iris() X = iris.data 2. 计算距离矩阵 # 计算距离矩阵D D = np.zeros((X.shape[0], X.shape[0])) for i in range(X.shape[0]): for j in range(X.shape[0]): D[i,j] = mahalanobis(X[i], X[j], np.linalg.inv(np.cov(X.T))) 3. 计算得分 # 计算每个样本的得分 k = 10 # 取前10个距离 scores = np.zeros(X.shape[0]) for i in range(X.shape[0]): distances = sorted(D[i,:])[:k] scores[i] = np.mean(distances) 4. 判定异常值 # 判断哪些样本为异常值 threshold = 2.5 # 设定阈值为2.5 outliers = np.where(scores > threshold)[0] print(outliers) # 输出异常值的下标

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值