linux spark单节点环境搭建,Spark实战:单节点本地模式搭建Spark运行环境

前言:

Spark本身用scala写的,运行在JVM之上。

JAVA版本:java 6 /higher edition.

1 下载Spark

你可以自己选择需要的版本,这里我的选择是:

注意:我这里是运行在Linux环境下。没有条件的可以安装下虚拟机之上!

2 解压缩&进入目录

tar -zvxf spark-1.1.0-bin-hadoop1.tgz

cd spark-1.1.0-bin-hadoop1/

3 启动shell

./bin/spark-shell

你会看到打印很多东西,最后显示

874e7a3ebdeb760b21b0c93399c07287.png

4 小试牛刀

先后执行下面几个语句

val lines = sc.textFile("README.md")

lines.count()

lines.first()

val pythonLines = lines.filter(line => line.contains("Python"))

scala> lines.first()

res0: String = ## Interactive Python Shel

---解释,什么是sc

sc是默认产生的SparkContext对象。

比如

scala> sc

res13: org.apache.spark.SparkContext = org.apache.spark.SparkContext@be3ca72

这里只是本地运行,先提前了解下分布式计算的示意图:

f75abe9c913ac9be673f92cfad922cfb.png

5 独立的程序

最后以一个例子结束本节

为了让它顺利运行,按照以下步骤来实施即可:

--------------目录结构如下:

/usr/local/spark-1.1.0-bin-hadoop1/test$ find .

.

./src

./src/main

./src/main/scala

./src/main/scala/example.scala

./simple.sbt

然后simple.sbt的内容如下:

name:="Simple Project"

version:="1.0"

scalaVersion:="2.10.4"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.1.0"

example.scala的内容如下:

importorg.apache.spark.SparkConf

importorg.apache.spark.SparkContext

importorg.apache.spark.SparkContext._

object example {

def main(args: Array[String]) {

val conf =newSparkConf().setMaster("local").setAppName("My App")

val sc =newSparkContext("local","My App")

sc.stop()

//System.exit(0)

//sys.exit()

println("this system exit ok!!!")

}

}

红色local:一个集群的URL,这里是local,告诉spark如何连接一个集群,local表示在本机上以单线程运行而不需要连接到某个集群。

橙黄My App:一个项目的名字,

然后执行:sbt package

成功之后执行

./bin/spark-submit  --class  "example"   ./target/scala-2.10/simple-project_2.10-1.0.jar

结果如下:

0f41ef3366816fbfc0018aa28e0f0f11.png

说明确实成功执行了!

结束!

【编辑推荐】

【责任编辑:林师授 TEL:(010)68476606】

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值