【服务器】(四)阿里云ECS上搭建Hadoop集群环境——设置(真分布式)Spark与Scala

本文详细介绍了如何在阿里云ECS上配置Hadoop集群,并着重讲解了在主从服务器上安装Scala2.11.8和Spark的步骤,包括环境配置、端口开放、问题排查等。通过本文,读者可以学习到如何解决在Spark启动过程中遇到的常见问题,如JAVA_HOME未设置、节点通信异常等。
摘要由CSDN通过智能技术生成

一、(主、从服务器都要)安装Scala2.11.8版:

1.1装载压缩包

	cd /home/test/Downloads
	
	tar -zxvf  /home/test/Downloads/scala-2.11.8.tgz -C /home/test/install/

1.2配置环境

	cd /home/test/install
	vim /etc/profile
	#文件内容如下:
	export SCALA_HOME=/home/test/install/scala-2.11.8
	export PATH=$PATH:$SCALA_HOME/bin

1.3在命令行中检测安装

	#更新环境配置
	source /etc/profile
	#查看安装情况
	scala -version

二、(主、从服务器都要)安装spark:

【说明】以下,非说明都只是在“master(主)服务器端操作”
【说明】以下,非说明都只是在“master(主)服务器端操作”
【说明】以下,非说明都只是在“master(主)服务器端操作”

2.1装载安装包并配置环境

  1. 装载压缩包
	cd /home/test/Downloads
	
	tar -zxvf  /home/test/Downloads/spark-2.2.0-bin-2.6.0-cdh5.14.0.tgz -C /home/test/install/
  1. 配置系统环境
	vim /etc/profile
	#spark
	export SPARK_HOME=/home/test/install/spark-2.2.0-bin-2.6.0-cdh5.14.0
	export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
  1. 更新系统配置
	source /etc/profile

2.1.查看spark安装包

	cd /home/test/install/spark-2.2.0-bin-2.6.0-cdh5.14.0	#进入,spark安装路径
	spark-shell	#查看版本,:quit	#退出scala
  1. spark_shell
    在这里插入图片描述
  2. 退出scala
    在这里插入图片描述

2.2.阿里云开放4040、8888以及8000端口

【说明】4040(spark_Job型UI)端口见你开启spark_shell提示的WebUi描述。见上上图

在这里插入图片描述

【说明】8888(overView型网页UI所需端口)、8000(另一个overView型默认UI——本地我打不开)也要打开阿里云安全组。


2.3 (Master端)配置spark

2.3.1.修改配置文件

说明】:在Master端编辑配置文件,之后,待slave安装完spark后,再把Master端的配置文件传输过去,之后再slave端不必整改。

进入编辑"spark-env.sh "

	#1.进入修改文件
	cd /home/test/install/spark-2.2.0-bin-2.6.0-cdh5.14.0/co
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值