python sklearn logistic_安利一个Python大数据分析神器!

96aaace946dde28783559c461284e978.png 来源:Python数据科学 作者:东哥起飞 对于Pandas运行速度的提升方法,之前已经介绍过很多回了,里面经常提及 Dask ,很多朋友没接触过可能不太了解,今天就推荐一下这个神器。 1、什么是Dask? Pandas和Numpy大家都不陌生了,代码运行后数据都加载到RAM中,如果数据集特别大,我们就会看到内存飙升。但有时要处理的数据并不适合RAM,这时候Dask来了。 Dask是开源免费的。它是与其他社区项目(如Numpy,Pandas和Scikit-Learn)协调开发的。 官方:https://dask.org/ Dask支持Pandas的DataFrame和NumpyArray的数据结构,并且既可在本地计算机上运行,也可以扩展到在集群上运行。 基本上,只要编写一次代码,使用普通的Pythonic语法,就可在本地运行或部署到多节点集群上。 这本身就是一个很牛逼的功能了,但这还不是最牛逼的。 我觉得Dask的最牛逼的功能是:它兼容大部分我们已经在用的工具,并且只需改动少量的代码,就可以利用自己笔记本电脑上已有的处理能力并行运行代 码。 而 并行处理数据就意味着更少的执行时间,更少的等待时间和更多的分析时间。 下面这个就是Dask进行数据处理的大致流程。 ed8e8f5dd57059f6419c50ce0888938c.gif 2、Dask支持哪些现有工具? 这一点也是我比较看中的,因为Dask可以与Python数据处理和建模的库包兼容,沿用库包的API,这对于Python使用者来说学习成本是极低的。而像Hadoop、Spark这种大数据处理是有很高的学习门槛和时间成本的。 目前,Dask可支持pandas、Numpy、Sklearn、XGBoost、XArray、RAPIDS等等,光是这几项我觉得就足够用了,至少对于常用的数据处理、建模分析是完全覆盖得掉的。
8ba3eb48ecfcbb4e0cc892d34b508317.png 3、Dask安装 可以使 用 conda 或者 pip, 或从源代码安装dask 。
conda install dask
因为dask有很多依赖,所以为了快速安装也可用下面代码,将安装运行Dask所需的最少依赖关系集。
conda install dask-core
再有就是通过源来安装。
git clone https://github.com/dask/dask.gitcd dask
python -m pip install .
4、Dask如何使用? Numpy、pandas Dask引入了3个并行集合,它们可以存储大于RAM的数据,这些集合有 DataFrame、Bags、Arrays 。这些集合类型中的每一个都能够使用在RAM和硬盘之间分区的数据,以及分布在群集中多个节点上的数据。 Dask的使用是非常清晰的, 如果你使用NumPy数组,就从Dask 数组开始, 如果你使用Pandas DataFrame,就从Dask DataFrame开始,依此类推。
import dask.array as da
x = da.random.uniform(low=0, high=10, size=(10000, 10000),  # normal numpy code
                      chunks=(1000, 1000))  # break into chunks of size 1000x1000
y = x + x.T - x.mean(axis=0)  # Use normal syntax for high level algorithms# DataFramesimport dask.dataframe as dd
df = dd.read_csv('2018-*-*.csv', parse_dates='timestamp',  # normal Pandas code
                 blocksize=64000000)  # break text into 64MB chunks
s = df.groupby('name').balance.mean()  # Use normal syntax for high level algorithms# Bags / listsimport dask.bag as db
b = db.read_text('*.json').map(json.loads)
total = (b.filter(lambda d: d['name'] == 'Alice')
          .map(lambda d: d['balance'])
          .sum())
这些高级接口在略微变化的情况下复制了标准接口。对于原始项目中的大部分API ,这些接口会自动为我们并行处理较大的数据 集,实现上不是很复杂,对照Dask的doc文档即可一步步完成。 Delayed 下面说一下Dask的  Delay  功能,非常强大。 Dask.delayed是一种并行化现有代码的简单而强大的方法。之所以被叫做delayed是因为,它没有立即计算出结果,而是将要作为任务计算的结果记录在一个图形中,稍后将在并行硬件上运行。 有时问题用已有的dask.array或dask.dataframe可能都不适合,在这些情况下,我们可以使用更简单的dask.delayed界面并行化自定义算法。例如下面这个例子。
def inc(x):return x + 1def double(x):return x * 2def add(x, y):return x + y
data = [1, 2, 3, 4, 5]
output = []for x in data:
    a = inc(x)
    b = double(x)
    c = add(a, b)
    output.append(c)
total = sum(output)45
上面代码在单个线程中按顺序运行。但是,我们看到其中很多可以并行执行。Dask delayed函数可修饰inc、double这些函数,以便它们可延迟运行,而不是立即执行函数,它将函数及其参数放入计算任务图中。 我们简单修改代码,用delayed函数包装一下。
import dask
output = []for x in data:
    a = dask.delayed(inc)(x)
    b = dask.delayed(double)(x)
    c = dask.delayed(add)(a, b)
    output.append(c)
total = dask.delayed(sum)(output)
代码运行后inc、double、add和sum都还没有发生,而是生成一个计算的任务图交给了total。 然后我们用visualizatize看下任务图。
total.visualize()  
c8465f9c5f95d06f6453f414baa96ee4.png 上图明显看到了并行的可能性,所以毫不犹豫,使用compute进行并行计算,这时才完成了计算。
>>> total.compute()45
由于数据集较小无法比较时间,这里只介绍下使用方法,具体可自己动手实践下。 Sklearn机器学习 关于机器学习的并行化执行,由于内容较多,东哥会在另一篇文章展开。这里简单说下一下dask-learn。 dask-learn项目 是与Sklearn开发人员协作完成的。现在可实现并行化有Scikit-learn的Pipeline、GridsearchCV和RandomSearchCV以及这些的变体,它们可以更好地处理嵌套的并行操作。 因此,如果你将sklearn替换为dklearn,那么速度将会提升很多。
# from sklearn.grid_search import GridSearchCVfrom dklearn.grid_search import GridSearchCV# from sklearn.pipeline import Pipelinefrom dklearn.pipeline import Pipeline
下面是一个使用Pipeline的示例,其中应用了PCA和逻辑回归。
from sklearn.datasets import make_classification
X, y = make_classification(n_samples=10000,
                           n_features=500,
                           n_classes=2,
                           n_redundant=250,
                           random_state=42)from sklearn import linear_model, decompositionfrom sklearn.pipeline import Pipelinefrom dklearn.pipeline import Pipeline
logistic = linear_model.LogisticRegression()
pca = decomposition.PCA()
pipe = Pipeline(steps=[('pca', pca),
                       ('logistic', logistic)])
grid = dict(pca__n_components=[50, 100, 150, 250],
            logistic__C=[1e-4, 1.0, 10, 1e4],
            logistic__penalty=['l1', 'l2'])# from sklearn.grid_search import GridSearchCVfrom dklearn.grid_search import GridSearchCV
estimator = GridSearchCV(pipe, grid)
estimator.fit(X, y)
结果是:sklearn会在40秒钟左右执行此计算,而dask-learn替代品大约需要10秒钟。 另外,如果添加以下代码可以连接到集群,通过Client可以展示整个计算过程的dashboard,由Bokeh实现。
from dask.distributed import Client
c = Client('scheduler-address:8786')
660ae98933c1c496097aaa006b3735d4.gif
5、总结 以上就是Dask的简单介绍,Dask的功能是非常强大的,且说明文档也非常全,既有示例又有解释。感兴趣的朋友可以自行去官网或者GitHub学习,东哥下次分享使用Dask进行机器学习的一些实例。 原创不易,感谢支持,来个三连可好e1038c525061c2ccf1e4e787cf3ac937.png

文末赠书福利

赠送书籍《Python机器学习一本通》5本!由「北京大学出版社」赞助提供,如果等不及也可以入手一本学习。

介绍:Python机器学习一本通》全书共20章,分为5篇。其中1篇为基础入门篇,主要讲述Python机器学习入门、设置机器学习的环境、机器学习基础和统计分析数学基础等内容;第2篇为数据预处理篇,主要讲述了产生和加载数据集、数据预处理等内容;第3篇为机器学习算法篇,主要讲述了回归分析、决策树分析、支持向量机、聚类分析、集成学习、神经网络学习、卷积网络学习和模型评价等内容。

参与方式:本篇文章底部「点赞」+「在看」+「留言」,文章内容相关的优质留言才可上墙!留言点赞数量最多前5位读者将获得这本书,截止时间「9月30日20:00」,最终获赠者通过留言联系我。
推荐阅读

Windows给力!可以扔掉Linux虚拟机了!

你只管打开这个网站,剩下的交给「卧槽」

膜拜!来自Kaggle金牌大佬的 Python数据挖掘框架!

全新 Edge 真香!它注定会成为最佳浏览器

Jupyter 平台最强插件,没有之一!

太可怕了!这个 Jupyter 插件可能会让我失业!

牛逼!一行代码让pandas的apply速度飙到极致!

?分享、点赞、在看,给个三连击呗!
Python的设计哲学是“优雅”、“明确”、“简单。Python用途极广。图形处理:有PIL、Tkinter等图形库支持,能方便进行图形处理。 数学处理:NumPy扩展提供大量与许多标准数学库的接口。 文本处理:python提供的re模块能支持正则表达式,还提供SGML,XML分析模块,许多程序员利用python进行XML程序的开发。 数据库编程:程序员可通过遵循Python DB-API(数据库应用程序编程接口)规范的模块与Microsoft SQL Server,Oracle,Sybase,DB2,MySQL、SQLite等数据库通信。python自带有一个Gadfly模块,提供了一个完整的SQL环境。 网络编程:提供丰富的模块支持sockets编程,能方便快速地开发分布式应用程序。很多大规模软件开发计划例如Zope,Mnet 及BitTorrent. Google都在广泛地使用它。 Web编程:应用的开发语言,支持最新的XML技术。 多媒体应用:Python的PyOpenGL模块封装了“OpenGL应用程序编程接口”,能进行二维和三维图像处理。PyGame模块可用于编写游戏软件。 pymo引擎:PYMO全称为python memories off,是一款运行于Symbian S60V3,Symbian3,S60V5, Symbian3, Android系统上的AVG游戏引擎。因其基于python2.0平台开发,并且适用于创建秋之回忆(memories off)风格的AVG游戏,故命名为PYMO。 黑客编程:python一个hack的库,内置了你熟悉的或不熟悉的函数,但是缺少成就感。 用Python写简单爬虫
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值