Hadoop分布式安装

databig安装链接大数据----虚拟机自定义安装和配置jdk-CSDN博客

安装所需文件链接:https://pan.baidu.com/s/1259wcGKME_DebgQ1U9gdFA?pwd=wf06 
提取码:wf06 

分布式安装和伪分布式安装步骤相似

1.集群规划

集群规划:

bigdata03bigdata04bigdata05
HDFSNameNode,DataNodeSecondaryNameNode,DataNodeDataNode
YARNNodeManagerNodeManagerResourcesManager,NodeManager

集群规划时的两个注意点:

hdfs中的NameNode和SecondaryNameNode不要安装在同一个节点上

yarn中的ResourcesManager不要和NameNode和SecondaryNameNode在同一个节点上

2.克隆并配置主机名和ip地址

将上述文章安装的虚拟机databig 右击管理->克隆,克隆三次,名分别为databig03,databig04,databig05,注意要创建完整克隆

三台虚拟机依次cd /etc目录下 vim hostname ,分别将里面的内容替换为databig03,databig04,databig05

cd /etc/sysconfig/network-scripts/

vim ifcfg-ens33

分别将ip地址修改为192.168.174.103  ,192.168.174.104  ,192.168.174.105

reboot重启生效

3.解压hadoop

先在databig03上解压hadoop

cd /opt/install_packages/

将hadoop压缩包通过MobaXterm发送到/opt/install_packages下

将hadoop解压到/opt/softs下

tar -zxvf hadoop-3.1.3.tar.gz -C /opt/softs/

解压完后改名

mv /opt/softs/hadoop-3.1.3/ /opt/softs/hadoop3.1.3/

4.配置环境变量

然后进入 cd hadoop3.1.3/

pwd命令,打印当前路径   /opt/softs/hadoop3.1.3

配置hadoop环境和进程用户

#HADOOP_HOME

export HADOOP_HOME=/opt/softs/hadoop3.1.3

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

export HDFS_NAMENODE_USER=root

export HDFS_DATANODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

vim /etc/profile   ,将上面的内容写进去

配置完毕后source /etc/profile (必须要source,不然修改不生效)

打印echo $HADOOP_HOME验证配置成功

5.做一下ip地址和主机的映射

cd /etc下 ,vim hosts, 在里面加一下三台主机的映射(ip地址+主机名),后面访问的时候根据这个配置的ip地址访问相应的主机

按esc保存,shift+z+z退出

另外;两台机器也需要映射,这里为了方便操作,直接使用远程传输命令 scp

scp 要远程传输的文件 目标主机的用户名@目标主机的IP或hostname:文件远程传输的位置

scp /etc/hosts root@databig04:/etc/

显示传输成功

在databig04上cat /etc/hosts,内容显示正确,传输映射无误

scp /etc/hosts root@databig05:/etc/

映射完05也可以cat查看一下

6.设置免密登录

需要三台虚拟机任意两两组合访问都是免密登录,分别在三台虚拟机下做以下操作

切换目录 cd /root

查看隐藏的内容 ls -al

 如果没有.ssh目录,可以先执行 ssh root@hostname(例如ssh root@databig02) 远程连接后 .ssh目录会被创建

cd .ssh

生成免密登录的公钥和私钥

ssh-keygen -t rsa (三个回车)

ll查看,第一个是私钥,第二个是公钥

将公钥发送给需要免密登录的虚拟机上

ssh-copy-id databig03

ssh-copy-id databig04

ssh-copy-id databig05

在databig04,databig05重复以上操作

7.集群搭建
1.根据集群规划修改集群配置文件
让hadoop找到java环境

回到databig03

cd /opt/softs/hadoop3.1.3/etc/hadoop/  

vim hadoop-env.sh

输入/JAVA_HOME按回车键搜索,找到#export JAVA_HOME= 所在行

去掉#并修改

export JAVA_HOME=/opt/softs/jdk1.8.0

/opt/softs/jdk1.8.0是你自己的jdk路径,可以通过输入echo $JAVA_HOME查看

esc保存,shift+z+z退出

四个xml文件配置

所用到的四个文件在网盘里下载,在本地修改好后再通过MobaXterm传输进虚拟机

core-site.xml文件,NameNode要改为自己集群规划时的主机名

hdfs-site.xml文件修改处,要换成自己规划的主机名,端口不用改

mapred-site.xml文件不用修改

yarn-site,xml文件

上传完成后分别用cat命令显示一下,检查内容是否正确

配置DataNode所在节点

vim workers  (还是在 /opt/softs/hadoop3.1.3/etc/hadoop/下  )

删掉localhost ,内容替换为

databig03

databig04

databig05

(这里要注意三个节点分别占据一行,不能写在同一行里)

修改完cat查看一下

发送配置

将整个配置目录发送到另外两台上:

cd /opt/softs

scp -r /opt/softs/hadoop3.1.3 root@databig04:/opt/softs/

scp -r /opt/softs/hadoop3.1.3 root@databig05:/opt/softs/

传输完成后分别到databig04和databig05的/opt/softs目录下查看是否有hadoop3.1.3目录

在databig03上配置了环境变量,所以还要向04,05发送环境文件(profile内容基于hadoop目录,所以后发)

scp /etc/profile root@databig04:/etc/

scp /etc/profile root@databig05:/etc/

然后不要忘记传输完成后在04,05上执行 source /etc/profile

8.初始化操作

在NameNode所在节点执行初始化操作,这里是在databig03上执行

hdfs namenode -format

显示成功后 cd /opt/softs/hadoop3.1.3/

ll查看,看见data目录生成

在NameNode节点即03上启动hdfs

start-dfs.sh

三个节点分别jps一下查看进程

和集群规划的hdfs一样

在05上启动yarn

start-yarn.sh

三台机器jps一下

以上即为正确配置的情况

9.查看日志

每次启动时节点情况都应该是上面的样子,如果启动的时候发现少节点,可以通过看日志排查

假设03的DataNode节点没有,复制一个03窗口,到hadoop安装目录下

cd /opt/softs/hadoop3.1.3/

cd logs/

哪个没有启动成功就看哪个log

由于日志是实时写入的,所以可以用查看滚动日志的命令

tail -500f 日志路径(意思是查看日志的最新500行)

tail -500f hadoop-root-datanode-databig03.log

查看日志里的错误信息即可

10.退出关闭

不用时尽量不要强制关闭,使用命令关闭

stop-dfs.sh

stop-yarn.sh

 

 

  • 17
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop分布式安装的步骤如下: 1. 在hadoop1上搭建伪分布式,并安装hadoop集群的所有进程。根据分布式规划,需要关闭SecondaryNameNode和ResourceManager进程。在hadoop1上执行以下命令: ``` chkconfig hadoop-hdfs-secondarynamenode off chkconfig hadoop-yarn-resourcemanager off ``` \[1\] 2. 在所有主机上进行配置。可以在一台主机上配置完后,将配置文件复制到其他主机。配置文件位于`/root/hadoop-2.6.0-cdh5.10.1/etc/hadoop`目录下。打开`core-site.xml`文件,配置`fs.defaultFS`属性为`hdfs://hadoop1:8020`,表示HDFS的访问入口。 ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop1:8020</value> </property> </configuration> ``` \[2\] 3. 将配置好的Hadoop复制到其他两台机器上。在三台机器上安装rsync远程同步工具: ``` yum install -y rsync ``` 然后将Hadoop发送到hadoop102和hadoop103机器上: ``` rsync -av /opt/modules/hadoop-3.2.4 root@hadoop102:/opt/modules/ rsync -av /opt/modules/hadoop-3.2.4 root@hadoop103:/opt/modules/ ``` \[3\] 以上是Hadoop分布式安装的主要步骤。根据具体情况,可能还需要进行其他配置和调整。 #### 引用[.reference_title] - *1* *2* [Hadoop分布式安装(超详细)](https://blog.csdn.net/qq_43667449/article/details/108751410)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [Hadoop完全分布式安装,全网最详细!](https://blog.csdn.net/weixin_53492344/article/details/129566924)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值