Spark函数讲解:collectAsMap

/**
 * User: 过往记忆
 * Date: 15-03-16
 * Time: 上午09:24
 * bolg: http://www.iteblog.com
 * 本文地址:http://www.iteblog.com/archives/1289
 * 过往记忆博客,专注于hadoop、hive、spark、shark、flume的技术博客,大量的干货
 * 过往记忆博客微信公共帐号:iteblog_hadoop
 */
scala> val data = sc.parallelize(List((1, "www"), (1, "iteblog"), (1, "com"), 
    (2, "bbs"), (2, "iteblog"), (2, "com"), (3, "good")))
data: org.apache.spark.rdd.RDD[(Int, String)] =
    ParallelCollectionRDD[26] at parallelize at <console>:12
 
scala> data.collectAsMap
res28: scala.collection.Map[Int,String] = Map(2 -> com, 1 -> com, 3 -> good)


从结果我们可以看出,如果RDD中同一个Key中存在多个Value,那么后面的Value将会把前面的Value覆盖,最终得到的结果就是Key唯一,而且对应一个Value。


本文转载自:http://www.iteblog.com/archives/1289

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 这个错误通常是因为您的代码中没有正确设置 Spark 相关的环境变量或者没有正确导入 Spark 库。请确认您是否正确设置了 Spark 的环境变量,如 `SPARK_HOME` 和 `PYTHONPATH`,以及是否正确导入了相关的库,如 `pyspark`。如果您是在 Jupyter Notebook 中使用 Spark,还需确保您已经正确安装了 `findspark` 库,并且在 Notebook 中正确设置了 Spark 相关的配置参数。 ### 回答2: 出现这个错误是因为在代码中找不到名为spark的值。出现这个错误有几种可能的原因: 1. Spark环境未正确设置:如果没有正确安装Spark或者没有正确配置Spark环境变量,代码中就无法找到spark的值。解决方法是确保Spark被正确安装和配置,可以尝试重新安装Spark并更新环境变量。 2. 缺少Spark依赖:如果代码中使用了SparkAPI,但是缺少了相应的Spark依赖,就会找不到spark的值。解决方法是在代码中添加Spark的依赖,可以通过在build.gradle或者pom.xml文件中添加相关依赖来解决。 3. 代码中的拼写错误:代码中可能存在拼写错误,导致无法找到spark的值。解决方法是检查代码中是否存在拼写错误,特别是在引用spark的地方。 总结来说,如果代码中出现"not found: value spark"的错误,要么是Spark环境未正确设置,要么是缺少Spark依赖,要么是代码中存在拼写错误。需要仔细检查和排查并采取相应的解决方法来修复这个错误。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值