Apache Spark 学习笔记(1)

今天正式开始学习Spark。

Sparkg官网下载1.5.2版本,然后解压到本地一个目录。

我的机器环境:

  • 系统:DELL笔记本,windows 7 64 bit,4核CPU,8G内存,256M闪存硬盘。

  • JVM: JDK 1.8.0_65

  • Scala: 2.10.2

我下载的是Spark with hadoop 2.6 版本,但是容易误导人的是,Spark并不自带Hadoop客户端的DLL。

Spark并不依赖于Hadoop,但是因为Spark可以无缝的集成Hadoop的HDFS和YARN,因此如果要在windows上使用HDFS和YARN,那么需要将Hadoop 客户端的DLL拷贝到%PATH%路径中。在Windows平台上,这意味着,你需要自己手工编译Hadoop。

操作一:跑Spark的run-example脚本:

C:\toolkit\spark-1.5.2-bin-hadoop2.6>.\bin\run-example SparkPi 10

操作二:打开Spark提供的交互式Shell:

C:\toolkit\spark-1.5.2-bin-hadoop2.6>bin\spark-shell --master local[2]

–master 参数用来指定集群里master的地址。如果等于local[N], 那就使用本地线程模拟。一般local[N]用于本地测试。

使用这个交互式Shell可以帮助你探索Spark的使用。

SQL context available as sqlContext.

scala> val textFile = sc.textFile("README.md")
textFile: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[1] at textFile at <console>:21

scala> textFile.count()
res0: Long = 98

scala> textFile.first
res1: String = # Apache Spark

scala> val linesWithSpark = textFile.filter(line => line.contains("Spark"))
linesWithSpark: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[2] at filter at <console>:23

scala> linesWithSpark.collect
res2: Array[String] = Array(...)

scala>

操作三:使用spark-submit提交一个作业:

C:\toolkit\spark-1.5.2-bin-hadoop2.6\bin>spark-submit --class org.apache.spark.examples.LocalPi --master local[4] ..\lib\spark-examples-1.5.2-hadoop2.6.0.jar
Picked up JAVA_TOOL_OPTIONS: -Dfile.encoding=UTF-8
Picked up JAVA_TOOL_OPTIONS: -Dfile.encoding=UTF-8
Pi is roughly 3.13252
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值