http://airos.blog.51cto.com/10853324/1719870

初识Spark RDD

Spark 工作方式

    1、从外部数据创建输入RDD

    2、对RDD进行转化操作生成新的RDD

    3、需要被重复利用的中间结果RDD进行持久化操作,如 persist()

    4、使用行动操作触发一次并行计算,Spark对计算优化后再执行

创建RDD

    两种办法:1、分发驱动器程序中的对象集合 2、读取外部数据集

    以读取文件中的一个字符为例,分别给出Python代码

    Python:

1
2
3
4
5
     words  =  sc.textFile("")
     #调用转化操作filter
     sparkWords  =  words. filter (lamda word:  "spark"  in  word)
     #调用行动操作first
     sparkWords.first()

 知识图谱如下

wKioL1Zilx3A853BAAB7K3y83gM833.png


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值