spark学习-hadoop安装与启动

本文档详细介绍了如何在三台服务器上安装和启动Hadoop,包括环境准备、配置网络、设置环境变量、修改配置文件、分布安装、初始化NameNode及启动服务。通过浏览器可以查看HDFS和YARN信息,使用HDFS命令进行文件操作。
摘要由CSDN通过智能技术生成

文章连接

1.spark学习-hadoop安装与启动
2.spark学习-spark安装和启动


安装前准备

1.首先准备三台服务器.一台master,两台slave.

172.18.101.157 spark-master
172.18.101.162 spark-slave1
172.18.132.162 spark-slave2

2.设置免密登录

1. 生成私钥和公钥

[root@spark-master data]# ssh-keygen -t rsa

一直敲回车,最后生产密钥

Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:xmlOlzYrf0obAn5T5rN+nI39yf+lXTibaETnu72yEN8 root@spark-master
The key's randomart image is:
+---[RSA 2048]----+
|                 |
|                 |
|                 |
|       . . .. .  |
|      . S Bo o   |
|     . * * o+ o. |
|      . * *+ *oEo|
|       . * =Oo=B+|
|         .*=..B*X|
+----[SHA256]-----+
[root@spark-master data]# 

2. 将公钥复制到slave机器上

[root@spark-master data]# scp /root/.ssh/id_rsa.pub root@172.18.101.162:/data/
[root@spark-master data]# scp /root/.ssh/id_rsa.pub root@172.18.132.162:/data/

进入slave机器,如公钥导入授权文件中

[root@spark-slave1 ~]# cd /data/
[root@spark-slave1 data]# cat id_rsa.pub >> /root/.ssh/authorized_keys
#返回master机器,测试是否配置成功
#测试slave1
[root@spark-master ~]# ssh spark-slave1
Last login: Fri Jun 22 20:07:35 2018 from 172.18.101.157
Welcome to Alibaba Cloud Elastic Compute Service !
#测试slave2
[root@spark-master ~]# ssh spark-slave2
Last login: Fri Jun 22 20:07:31 2018 from 172.18.101.157
Welcome to Alibaba Cloud Elastic Compute Service !
3.安装jdk

vim /etc/profile
配置环境变量

JAVA_HOME=/opt/jdk8
CLASSPATH=.:$JAVA_HOME/lib.tools.jar
PAT
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值