![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pyspark
文章平均质量分 96
zhuzuwei
这个作者很懒,什么都没留下…
展开
-
pyspark中部分***ByKey的用法
准备工作import pysparkfrom pyspark import SparkContextfrom pyspark import SparkConfconf=SparkConf().setAppName("lg").setMaster('local[4]')sc=SparkContext.getOrCreate(conf)1.aggregateByKeyaggre...原创 2020-02-22 17:13:40 · 2017 阅读 · 0 评论 -
pyspark中RDD常用操作
准备工作:import pysparkfrom pyspark import SparkContextfrom pyspark import SparkConfconf=SparkConf().setAppName("lg").setMaster('local[4]') #local[4]表示用4个内核在本地运行 sc=SparkContext.getOrCreate(co...原创 2020-02-21 17:05:46 · 3281 阅读 · 0 评论