孤立森林介绍

1、孤立森林介绍

iForest(IsolationForest)孤立森林是一个基于Ensemble的快速异常检测方法,具有线性时间复杂度和高精准度,是符合大数据处理要求的state-of-the-art算法。

其可以用于网络安全中的攻击检测,金融交易欺诈检测,疾病侦测,和噪声数据过滤等。

iForest 适用与连续数据的异常检测,将异常定义为“容易被孤立的离群点 ”——可以理解为分布稀疏且离密度高的群体较远的点。用统计学来解释,在数据空间里面,分布稀疏的区域表示数据发生在此区域的概率很低,因而可以认为落在这些区域里的数据是异常的。

iForest即不用定义数学模型也不需要有标记的训练。对于如何查找哪些点是否容易被孤立,iForest使用了一套非常高效的策略。

假设我们用一个随机超平面来切割数据空间, 切一次可以生成两个子空间。之后我们再继续用一个随机超平面来切割每个子空间,循环下去,直到每子空间里面只有一个数据点为止。直观上来讲,我们可以发现那些密度很高的簇是可以被切很多次才会停止切割,但是那些密度很低的点很容易很早的就停到一个子空间了。

上图里面红色的点就很容易被切几次就停到一个子空间,而白色点和绿色点聚集的地方可以切很多次才停止。

2、实现步骤

怎么来切这个数据空间是iForest的设计核心思想,我们仅介绍最基本的方法。由于切割是随机的,所以需要用ensemble的方法来得到一个收敛值(蒙特卡洛方法),即反复从头开始切,然后平均每次切的结果。iForest由t个iTree(Isolation Tree)孤立树 组成,每个iTree是一个二叉树结构,其实现步骤如下:

1. 从训练数据中随机选择Ψ个点样本点作为子样本,放入树的根节点。

2. 随机指定一个维度,在当前节点数据中随机产生一个切割点p——切割点产生于当前节点数据中指定维度的最大值和最小值之间。

3. 以此切割点生成了一个超平面,然后将当前节点数据空间划分为2个子空间:把指定维度里小于p的数据放在当前节点的左边,把大于等于p的数据放在当前节点的右边。

4. 在子节点中递归步骤2和3,不断构造新的子节点,直到子节点中只有一个数据(无法再继续切割)或子节点已到达限定高度。

获得t个iTree之后,iForest训练就结束,然后我们可以用生成的iForest来评估测试数据了。对于一个训练数据x,我们令其遍历每一棵iTree,然后计算x最终落在每个树第几层(x在树的高度)。然后我们可以得出x在每棵树的高度平均值。

获得每个测试数据的高度平均值后,我们可以设置一个阈值(边界值),高度平均值低于此阈值的测试数据即为异常。也就是说异常在这些树中只有很短的平均高度。

bc的高度为3a的高度是2d的高度是1可以看到d最有可能是异常,因为其最早就被孤立(isolated)了

3、参数设置

iForest算法参数设置如下:

n_estimatorsint,可选(默认值= 100),集合中的基本估计量的数量

max_samplesintfloatoptionaldefault =“auto”

X中抽取的样本数量,以训练每个基本估计量。如果为int,则绘制max_samples采样。

如果为float,则绘制max_samples * X.shape [0]个采样。

如果是“auto”,那么max_samples = min256n_samples)。

如果max_samples大于提供的样本数量,则所有样本都将用于所有树木(不进行采样)。

contamination float0.0.5),可选(默认值= 0.1

数据集contamination,即数据集中异常值的比例。在拟合时用于定义决策函数的阈值。

4、代码实战 

import pandas as pd
import numpy as np
from sklearn.ensemble import IsolationForest

data = pd.read_csv('iForest.csv')

X_cols = ["x1", "x2", "x3", "x4", "x5", "x6"]

it = IsolationForest(contamination=0.1)

iForest=iForest.fit(data[X_cols])

pred = it.predict(data[X_cols])

data["pred"]=pred

data.groupby("pred").count()

预测结果:

预测结果为“-1”的为异常值,从数据结果上可以看出,异常值占总体样本的10%左右,比例可以自己设定。

data.to_csv("IsolationForest.csv", encoding = "GB18030")

数据导出到本地。

总结:

iForest目前在分类聚类和异常检测中都取得显著效果,但是孤立森林也有自身的缺点:

1、iForest仅对全局稀疏点敏感,不擅长处理局部的相对稀疏点;

2、iForest不适用于特别高维的数据。由于每次切数据空间都是随机选取一个维度,建完树后仍然有大量的维度信息没有被使用,导致算法可靠性降低。高维空间还可能存在大量噪音维度或无关维度(irrelevant attributes),影响树的构建。

3、iForest属于无监督问题,这是区别于其他森林系的。所以iForest预测结果为异常值的样本需要进行人工检查。比如:我们用的样本数据是城市个维度的数据,最终检查的结果是北上广深发达城市和西北的一些落后城市,也就是说iForest只能检查出异常,但是不能区分异常的好坏。所以大家运用的时候还要谨慎。

  • 6
    点赞
  • 56
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 14
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Andy_shenzl

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值