spark安装包_大数据开发|spark环境构建

1266e095845957773f2ad3586d9a5919.png

提前说明一下,大数据的搭建环境都是在Linux系统下构建,可能针对一些没有Linux编程基础的同学来说会有一些吃力,请各位客官放心,小店伙计后期会专门有几期来讲解Linux编程基础。绝对保证零基础完成大数据环境的构建。今天大数据环境构建后会暂停其他组件(hue、flume、kafka、oozie等)的构建,后面的文章就是基于该环境讲解大数据的应用。

安装zookeeper

参考:大数据开发|Hadoop分布式集群环境构建(1)

安装spark

3f8988063c172a74ae78a61d1d534896.png

2.2

安装scala

spark的底层是基于scala语言编写,对于spark的计算程序也可以通过scala语言来编写。

并解压scala:

tar -zxvf scala-2.10.4.tar.gz

6a921b1f80091620a417c9b9a32d9b51.png

2.3

spark安装配置

下载spark安装包

并解压:tar -zxvf spark-1.5.0-cdh5.5.1.tar.gz

如果你对大数据开发感兴趣,想系统学习大数据的话,可以戳我加入大数据技术学习交流群,私信管理员即可免费领取开发工具以及入门学习资料

44336666e256cc0dce0f3c544962b262.png

05099c47f3abd682c52fab60f1b07427.png

配置spark-env.sh

3cd366cada8084d852149e2b46a52e3a.png

内容如下:

export SPARK_CLASSPATH=/home/hadoop/hadoop/etc/hadoop:/home/hadoop/hadoop/share/hadoop/common/lib/*:/home/hadoop/hadoop/share/hadoop/common/*:/home/hadoop/hadoop/share/hadoop/hdfs:/home/hadoop/hadoop/share/hadoop/hdfs/lib/*:/home/hadoop/hadoop/share/hadoop/hdfs/*:/home/hadoop/hadoop/share/hadoop/yarn/lib/*:/home/hadoop/hadoop/share/hadoop/yarn/*:/home/hadoop/hadoop/share/hadoop/tools/lib/*:/home/hadoop/hadoop/share/hadoop/mapreduce/lib/*:/home/hadoop/hadoop/share/hadoop/mapreduce/*:/contrib/capacity-scheduler/*.jar

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop3:2181,hadoop4:2181,hadoop5:2181 -Dspark.deploy.zookeeper.dir=/spark"

export SCALA_HOME=/home/hadoop/scala

export JAVA_HOME=/home/hadoop/jdk

export HADOOP_HOME=/home/hadoop/hadoop

a655afba7c22253c34f64abbff5a01bb.png

配置slaves

f80e2e312284c1c17dd230e09d7ce2e2.png

2.4

启动集群

./start-all.sh

00bc44c6c37b28732e321af56e89e786.png

结果

840fcbdd672b1c2684b8542750971a9f.png

2609533bc58ea6bed02ab51777a79f5a.png

因为采用的是HA模式

就需要在备用机子上启动master

7f71b700088110db1a02c7cc8f397bd8.png

8468cc8c102960b99ffbdec9bd383dea.png

至此spark HA集群就搭建成功了

测试

./spark-shell

5c3e2b0b3a3421c6d72f5a61f954b8a5.png

例子:

统计文字的长度

代码:

val lines = sc.textFile("hdfs://mycluster/user/hive/warehouse/lijietest/hive_test.txt")

val lineLengths = lines.map(s => s.length)

val totalLength = lineLengths.reduce((a, b) => a + b)

d32765e540262a19e07c7455a60e743e.png

运行结果:

c3a6e600d2431a78c55740f1ad1f1a94.png

5212633d1a4ffb2805c5fafa4adade02.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值