[机器学习][异常检测算法]


0.引言

异常检测应用在工业检测、账户行为监测等领域。
问题特点:

  • 样本比例高度不均衡,异常点总是极少数的;
  • 异常样本子集一般不具备共性的特征,异常的方式各不相同,难以作为一个类别分类
  • 高维数据中,并非所有的样本都会用到,需要特征选择;
  • 由于样本高度不平衡,因此测试的指标往往用F1;

异常检测问题,往往更多使用无监督的算法建模,再结合标定的验证集用于切阈值。

异常检测的两类常用方法:

  • 基于概率分布的方法
    吴恩达机器学习课程,手动code
  • Isolation Forest
    周志华及其学生研究提出,已经有了sklearn实现。

本文案例代码:https://github.com/Frank2015a/machine_learning_practice/blob/master/04_AnomalyDetection/Anornal.ipynb

1.示例数据

数据集:电脑开机参数,包含两个特征

  • 等待时间
  • CPU吞吐量

训练集和验证集的图示如:

image_1d5ijm9vc12eoq9s31217sf1spl9.png-28.6kB

2. 概率分布异常检测

算法概述

算法教程参见吴恩达-机器学习-异常检测。

基本的假定是:数据中的每个特征数值都符合正态分布,如果数据点在整体分布上的概率密度值极小,即极小概率出现,认为是异常值。

image_1d5ik2kol1oaj14f21e8o11n0ppcm.png-207.2kB

概率分布方法对数据的要求:

  • 特征为数值型变量,factor型变量难以用概率描述
  • 特征数值符合正态分布

数据检验

正态性检验方法:stats.shapiro

  • 原假设:数据符合正态分布
  • 接受假设的条件:

    • 统计量W接近1
    • 显著性水平(p-value)大于0.05

    从训练集假设检验的结果并不完全满足正态分布。

from scipy import stats # 用于数据的正态性检验
print('norm test of X[:,0]: ', stats.shapiro(X[:,0]))
print('norm test of X[:,1]: ', stats.shapiro(X[:,1]))
# output 
norm test of X[:,0]:  (0.818209171295166, 2.788045548629635e-18)
norm test of X[:,1]:  (0.7949155569076538, 2.2437695460625395e-19)

算法应用

训练数据无label,在labeled验证集上,应用算法:

p_val = multivariate_gaussian(X_val, mu, sigma2) #根据训练集的mu sigma2 得到验证集样本的概率
epsilon_0, f1_0 = select_threshold(y_val, p_val)     # 搜索选择合适的概率阈值
print('Best epsilon found using cross-validation: {:0.4e}'.format(epsilon_0))
print('Best F1 on Cross Validation Set: {:0.6f}'.format(f1_0))
# output
Best epsilon found using cross-validation: 8.9909e-05
Best F1 on Cross Validation Set: 0.875000

image_1d5ikbpg42fe11o7e1b2d01shj13.png-17.7kB

数据集中的9个异常点,检测出了7个,另外2个未检出的点实际在数据集的中心位置,并不是典型的异常点。需要注意的是,仅当数据为2维时,才能方便的应用可视化方法。

3. Isolation Forrest

算法概述

周志华及其学生在2010年提出。

方法:对样本的所有特征2分叉,随机采样构建N棵Tree
假设:异常点非常稀有,一般很快会分配到叶子节点,路径短
结果:对样本在Tree中分配路径长度归一化,给出异常指数

以路径长度作为异常的度量,在sklearn中已经有成熟实现,模型简单,速度快,参数少。
输入数据的特征选择比较重要,少量关键的特征效果好。

算法应用

由于算法已经在sklearn中实现,可以直接加载使用.IsolationForest 支持并行计算,在数据集较大的时候很有优势。

from sklearn.ensemble import IsolationForest
# 需要调的参数主要是 树的棵树
isf = IsolationForest(n_estimators=10,
                      n_jobs=-1,          # 使用全部cpu
                      verbose=2,
                     )
isf.fit(X) # 直接用无标签数据训练              
# 通过decision_function获取异常系数值,可以理解为异常概率,选择一个最好的阈值
y_val_prob = isf.decision_function(X_val)
epsilon_1, f1_1 = select_threshold(y_val, y_val_prob)

print('Best epsilon found using cross-validation: {:0.4e}'.format(epsilon_1))
print('Best F1 on Cross Validation Set: {:0.6f}'.format(f1_1))

# output
Best epsilon found using cross-validation: -6.2384e-02
Best F1 on Cross Validation Set: 0.823529

image_1d5ikllotf4h1n4s1igu14021qn41g.png-17.5kB

由于数据集比较简单,IsolationForest检测性能与概率分布法是一致的。
由于IsolationForest对数据的格式(连续、离散)以及概率分布没有要求,可以预见这种算法的应用范围可能更广。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值