机器学习笔记六:sklearn四种异常检测算法比较以及实现异常点检测

本文介绍了异常检测算法,包括其在异常值检测中的应用和局限性。详细讨论了高斯混合模型(GMM)、孤立森林(Isolation Forest)、局部离群因子(LOF)和DBSCAN在不同数据集上的表现。通过2D数据集实例展示了这些算法如何处理多模式数据,并提到了参数调整和无监督学习的挑战。
摘要由CSDN通过智能技术生成
一、异常检测算法介绍

sklearn.svm.OneClassSVM:对异常值敏感,因此对于异常值检测效果不佳。当训练集不受异常值污染时,此估计器最适合新数据检测;而且,在高维空间中检测异常值,或者不对基础数据的分布进行任何假设都是非常具有挑战性的,而One-class SVM在这些情况下可能会得到有用的结果,如果超参数设置合适的话。

sklearn.covariance.EllipticEnvelope:假定数据为高斯分布并学习一个椭圆。因此,当数据不是高斯分布的单峰时,性能会降低。但是请注意,这个模型估计对异常值具有鲁棒性。

sklearn.ensemble.IsolationForestsklearn.neighbors.LocalOutlierFactor对于多模(multi-modal)数据集,效果似乎还不错。sklearn.neighbors.LocalOutlierFactor相对其他模型的优势在第3个数据集有展示,其中两种模式的密度不同。LOF的局部特性解释了此优势,也就是它仅将一个样本的异常评分与其相邻样本的异常评分进行比较。

对于第5个数据集,很难说一个样本比另一个样本异常得多,因为它们均匀分布在超立方体中。除了sklearn.svm.OneClassSVM有点不合适,其他所有估算器都针对这种情况给出了不错的解决方案。在这种情况下,明智的做法是仔细观察样本的异常分数,因为好的模型估计器应该为所有样本分配相似的分数。

另外,此处已手动选择了模型的参数,但实际上需要对其进行进一步调整优化。在没有标记数据的情况下,是非监督学习问题,因此针对不同的实际情况选择模型可能是一个很大的挑战。

注意:尽管这些示例给出了有关算法的一些直觉,但这种直觉可能不适用于非常高维的数据。

二、异常点检测实例

此实例显示了2D数据集上不同异常检测算法的特征。数据集包含一种或两种模式(高密度区域),以说明算法处理多模式数据的能力。示例中有5个数据集,对于每个数据集,将生成15%的样本作为随机均匀噪声。该比例是为OneClassSVMnu参数和其他异常值检测算法的污染参数提供的值。离群值的决策边界以黑色显示,但局部离群值因子(LOF)除外,因为当用于离群值检测时,它没有适用于新数据的预测方法。

1、导入相关模块

import time

import numpy as np
import matplotlib
import matplotlib.pyplot as plt

from sklearn import svm
from sklearn.datasets import make_moons, make_blobs
from sklearn.covariance import EllipticEnvelope
from sklearn.ensemble import IsolationForest
from sklearn.neighbors import LocalOutlierFactor

2、设置总点数、正常点数、异常点数

# sample settings 设置总点数、正常点数、异常点数
n_samples = 300
outliers_fraction = 0.15
n_outliers = int(outliers_fraction * n_samples)
n_inliers = n_samples - n_outliers

3、定义用于异常检测的四种算法

# 定义用于异常检测的四种算法,后面会对这四种算法进行比较
# define outlier/anomaly detection methods to be compared
anomaly_algorithms = [
    ("Robust covariance", EllipticEnvelope(contamination=outliers_fraction)),
    
    ("One-Class SVM", svm.OneClassSVM(nu=outliers_fraction, kernel="rbf",gamma=0.1)),
    
    ("Isolation Forest", IsolationForest(behaviour='new',
                                         contamination=outliers_fraction,
                                         random_state=0)),
    
    ("Local Outlier Factor", LocalOutlierFactor(n_neighbors=35, 
                                                contamination=outliers_fraction))]

4、定义5个数据集

# 定义数据集,下面给定了5个数据集(Define datasets)
blobs_params = dict(random_state=0, n_samples=n_inliers, n_features=2)
datasets = [
    make_blobs(centers=[[0, 0], [0, 0]], cluster_std=0.5,
               **blobs_params)[0],
    
    make_blobs(centers=[[2, 2], [-2, -2]], cluster_std=[0.5, 0.5],
               **blobs_params)[0],
    
    make_blobs(centers=[[2, 2], [-2, -2]], cluster_std=[1.5, .3],
               **blobs_params)[0],
    
    4. * (make_moons(n_samples=n_samples, noise=.05, 
                     random_state=0)[0] -np.array([0.5, 0.25])),
    
    14. * (np.random.RandomState(0).rand(n_samples, 2) - 0.5)]

5、开始训练、预测以及绘制决策边界

xx, yy = np.meshgrid(np.linspace(-7, 7, 150),
                     np.linspace(-7, 7, 150))

#plt.figure(figsize=(len(anomaly_algorithms) * 2 + 3, 12.5))
plt.figure(figsize=(40, 40))
plot_num = 1
rng = np.random.RandomState(0)
for i_dataset, X in enumerate(datasets):
    # Add outliers 添加异常点 在xy均为(-6~6)的范围内产生异常点
    X = np.concatenate([X, rng.uniform(low=-6, high=6,size=(n_outliers, 2))], axis=0)
    
    for name, algorithm in anomaly_algorithms:
        t0 = time.time()
        algorithm.fit(X)
        t1 = time.time()
        plt.subplot(len(datasets), len(anomaly_algorithms), plot_num)
        if i_dataset == 0:
            plt.title(name, size=18)

        # fit the data and tag outliers 
        # y_pred的值是1或者-1,也即正常或者异常
        if name == "Local Outlier Factor":
            y_pred = algorithm.fit_predict(X)
        else:
            y_pred = algorithm.fit(X).predict(X)

        # plot the levels lines and the points
        # np.c_[xx.ravel(), yy.ravel()]得到的将会是150*150个坐标点,shape=(150*150,2)
        # xx和yy的shape都是(150,150),Z的shape也是(150,150),这样刚好对应150*150个坐标点
        if name != "Local Outlier Factor":  # LOF does not implement predict
            Z = algorithm.predict(np.c_[xx.ravel(), yy.ravel()])
            Z = Z.reshape(xx.shape)
            plt.contour(xx, yy, Z, levels=[0], linewidths=2, colors='black')

        colors = np.array(['#377eb8', '#ff7f00'])
        plt.scatter(X[:, 0], X[:, 1], s=10, color=colors[(y_pred + 1) // 2])

        plt.xlim(-7, 7)
        plt.ylim(-7, 7)
        plt.xticks(())
        plt.yticks(())
        plt.text(.99, .01, ('%.2fs' % (t1 - t0)).lstrip('0'),
                 transform=plt.gca().transAxes, size=15,
                 horizontalalignment='right')
        plot_num += 1

plt.show()

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值