伪分布式搭建hadoop

一、安装JAVA环境

1.下载JDK安装包

安装包:jdk-8u152-linux-x64.tar.gz

2.卸载自带OpenJDK

[root@master ~]#rpm -qa | grep java

卸载相关服务

查看删除结果再次键入命令 java -version 出现以下结果表示删除成功

[root@master ~]#java –version

bash: java: 未找到命令

3.安装JDK

[root@master ~]# tar -zxvf jdk-8u152-linux-x64.tar.gz -C /usr/local/src/

[root@master ~]# ls /usr/local/src/
jdk1.8.0_152

4. 设置 JAVA 环境变量

[root@master ~]# vi /etc/profile

在文件的最后增加两行:

export JAVA_HOME=/usr/local/src/jdk1.8.0_152

export PATH=$PATH:$JAVA_HOME/bin

使配置文件生效

[root@master ~]# source /etc/profile

检查JAVA是否可用:

[root@master ~]# echo $JAVA_HOME

/usr/local/src/jdk1.8.0_152

[root@master ~]# java –version

java version "1.8.0_152"

Java(TM) SE Runtime Environment (build 1.8.0_152-b16)

Java HotSpot(TM) 64-Bit Server VM (build 25.152-b16, mixed mode)

能够正常显示则说明配置成功。

二、实现免密登录

1.创建ssh密钥,生成公私密钥

[root@master hadoop]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

2.将master公钥id_dsa复制到master进行公钥认证,实现免密登录。

[root@master hadoop]# ssh-copy-id -i /root/.ssh/id_dsa.pub master

[root@master hadoop]# ssh master

[root@master ~]# exit

三、hadoop环境的安装与配置

1.改名

将hadoop-2.7.1.tar.gz压缩包解压到opt/software文件下,并改名为hadoop

2.修改环境变量

[root@master ~]# vi /etc/profile

在文件最后添加两行:

export HADOOP_HOME=/usr/local/src/hadoop-2.7.1

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

执行 source 使用设置生效:

[root@master ~]# source /etc/profile

3.编辑/usr/local/src/hadoop/etc/hadoop/hadoop-env.sh文件

4.编辑core-site.xml文件

5.编辑hdfs-site.xml文件

6.配置mapred-site.xml

[root@master hadoop]# cp mapred-site.xml.template mapred-site.xml

7.配置yarn-site.xml文件

8.配置/opt/hadoop/etc/hadoop/slaves文件

9.格式化hdfs

[root@master hadoop]# hdfs namenode –format

[root@master hadoop]# start-all.sh

[root@master hadoop]# jps

在浏览器的地址栏输入http://master:50070,进入页面可以查看NameNode和DataNode 信息

四、安装伪分布式spark

1.将安装包解压到/opt/software/文件下

[root@master ~]# tar -zxvf /opt/software/spark-3.2.1-bin-hadoop2.7.tgz -C /usr/local/src/

2.复制和重命名后得到spark-env.sh,打开spark-env.sh文件添加内容

[root@master sbin]# cd /usr/local/src/spark-3.2.1-bin-hadoop2.7/conf/

[root@master conf]# cp spark-env.sh.template spark-env.sh

[root@master conf]# vi spark-env.sh

在文件最后添加:

export JAVA_HOME=/usr/local/src/jdk1.8.0_152

export HADOOP_HOME=/opt/hadoop

export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop

export SPARK_MASTER_IP=master

export SPART_LOCAL_IP=master

3.进入spark目录的/sbin下启动spark集群,jps查看

[root@master conf]# cd /usr/local/src/spark-3.2.1-bin-hadoop2.7/sbin/

[root@master sbin]# ./start-all.sh

[root@master sbin]# jps

4.启动spark-shell

[root@master ~]# cd /usr/local/src/spark-3.2.1-bin-hadoop2.7/sbin/

[root@master sbin]# spark shell

5.在浏览器中查看http://master:8080

五、安装伪分布式scala

1.上传并解压安装scala安装包

[root@master ~]# tar -zxvf/opt/software/scala-2.11.8.tgz -C /usr/local/src

2.设置环境变量

[root@master ~]# vim /etc/profile

#SCALA

export SCALA_HOME=/usr/local/src/scala-2.11.8

export PATH=$PATH:${SCALA_HOME}/bin

[root@master ~]# source /etc/profile  

[root@master src]# scala -version

[root@master src]# scala

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值