【Spark大数据处理技术】RDD及编程接口:(一)

Scala实现简单的PageRank


val sc = new SparkContext(...)  //spark-shell默认已创建好sc
val links = sc.parallelize(Array(('A',Array('D')),('B',Array('A')),('C',Array('A','B')),('D',Array('A','C'))),2).map(x => (x._1,x._2)).cache()  
  
var ranks = sc.parallelize(Array(('A',1.0),('B',1.0),('C',1.0),('D',1.0)),2)  
  
val iterations = 10  
  
for(i <- 1 to iterations){  
    val contribs = links.join(ranks,2).flatMap{  
        case(url,(links,rank)) => links.map(dest => (dest,rank/links,size))  
    }  
  
    ranks = contribs.reduceByKey(_ + _,2).mapValues(0.15 + 0.85 * _)  
}  
//ranks.take(1) 可直接查看结果
  
ranks.saveAsTextFile(...) //“hdfs://localhost:9000/user/”没有报错,卡死,hdfs没有存储文件
//重启spark-shell,必须kill -9 5525(我电脑的id) 否则报错:


<console>:16: error: not found: value sqlContext
         import sqlContext.implicits._
                ^
<console>:16: error: not found: value sqlContext
         import sqlContext.sql


小结:RDD还是蛮灵活的,Scala语言还要再走一遍。


以上为参考书籍的一点体会,可参考以下两篇博客:

http://blog.csdn.net/wzy0623/article/details/51383232

http://blog.csdn.net/li385805776/article/details/19760663

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值