使用Isolation forest算法处理大规模数据方法介绍

本文介绍了如何使用Isolation Forest算法处理超过千万条的大规模数据,面对高CPU或内存使用情况,提出了分块批处理的思想。通过将数据拆分为小块进行计算,然后整合结果,有效降低了对硬件的需求。这种方法适合初学者提升效率,解决实际问题。
摘要由CSDN通过智能技术生成

在做数据挖掘时,我们常常因为自身电脑的配置不高,所以在运行代码时出现,cpu利用率太高或者内存使用率直接爆表的情况。在这里我介绍一种处理方法,这种方法所传递的思想,也可以用到类似的场景中去。本文是基于Isolation forest处理异常数据所采用的方法,其中原始数据非常庞大,数据量超过千万条,虽然Isolation forest这个算法实用性非常大,但是当数据量达到一定程度时,对于电脑硬件也是非常吃力的。所以我这里直接使用了一个分块批处理的思想方法(批处理思想:将一个大规模数据分成多个小块进行计算,然后汇总整合得出结果),这种思想在计算机领域应用很广泛,我在这里再补充一点,这种方法更多的是给一些初学者提高一个思考的方向,用以提高效率,解决实际问题。

数据量:1000w以上

运行环境:python3.7+pycharm

代码:

#!/usr/bin/env python3
#coding=utf-8

import pandas as pd
from sklearn.ensemble import IsolationForest
import os
import numpy as np

#使用isolation forest算法去除异常
def fileter_sale_data():
    rfilename='a.csv'
    df=pd.read_csv(rfilename,engine='python',encoding='utf-8')
    need_col=np.array(df['discount_price'].values)
    ifmodel=IsolationForest(n_jobs=-
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值