Hadoop伪分布式安装

本文详细介绍了Hadoop伪分布式安装的步骤,包括关闭防火墙、配置主机名、SSH免密、安装JDK、配置Hadoop相关XML文件,以及启动Hadoop。注意主机名不能含有下划线,并提供了解决启动问题的方法。
摘要由CSDN通过智能技术生成

Hadoop伪分布式安装

一、步骤

1. 关闭防火墙

临时关闭:service iptables stop
永久关闭:chkconfig iptables off

2. 配置主机名。

需要注意的是Hadoop的集群中的主机名不能有_。如果存在_会导致Hadoop集群无法找到这群主机,从而无法启动!

a. 编辑network文件:vim /etc/sysconfig/network
b. 将HOSTNAME属性改为指定的主机名,例如:HOSTNAME=hadoop01
c. 让network文件重新生效:source /etc/sysconfig/network

3. 配置hosts文件,将主机名和ip地址进行映射

a. 编辑hosts文件:vim /etc/hosts
b. 将主机名和ip地址对应,例如:192.168.174.128 hadoop01

4. 配置ssh进行免密互通

a. 生成自己的公钥和私钥,生成的公私钥将自动存放在/root/.ssh目录下:ssh-keygen
		b. 把生成的公钥拷贝到远程机器上,格式为:ssh-copy-id [user]@host,例如:ssh-copy-id root@hadoop01

5. 重启Linux让主机名的修改生效:reboot

6. 安装JDK

7. 上传或者下载Hadoop安装包到Linux中

8. 解压安装包:tar -xvf hadoop-2.7.1_64bit.tar.gz

9. 进入Hadoop的安装目录的子目录etc/hadoop,配置Hadoop:cd hadoop2.7.1/etc/hadoop

a. 配置hadoop-env.sh
		b. 编辑hadoop-env.sh:vim hadoop-env.sh
		c. 修改JAVA_HOME的路径,修改成具体的路径。例如:export JAVA_HOME=/home/software/jdk1.8
		d. 修改HADOOP_CONF_DIR的路径,修改为具体的路径,例如:export HADOOP_CONF_DIR=/home/software/hadoop-2.7.1/etc/hadoop
		e. 保存退出文件
		f. 重新加载生效:source hadoop-env.sh

10. 配置 core-site.xml

a. 编辑core-site.xml:vim core-site.xml
b. 添加如下内容:

<property>
    <!-- 指定HDFS中的主节点 - namenode -->
    <name>fs.defaultFS</name>               
    <value>hdfs://hadoop01:9000</value>
</property>
<property>
    <!-- 执行Hadoop运行时的数据存放目录 -->
    <name>hadoop.tmp.dir</name>
    <value>/home/software/hadoop-2.7.1/tmp</value>
</property>

c. 保存退出

11. 配置 hdfs-site.xml

a. 编辑hdfs-site.xml:vim hdfs-site.xml
b. 添加如下配置:

<property>
    <!-- 设置HDFS中的副本数量 -->
    <!-- 在伪分布式下,值设置为1 -->
    <name>dfs.replication</name>
    <value>1</value>
</property>

c. 保存退出

12. 配置 mapred-site.xml

a. 将mapred-site.xml.template复制为mapred-site.xml:cp mapred-site.xml.template mapred-site.xml
b. 编辑mapred-site.xml:vim mapred-site.xml
c. 添加如下配置:

<property>
    <!-- 指定将MapReduce在Yarn上运行  -->
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

d. 保存退出

13. 配置 yarn-site.xml

a. 编辑yarn-site.xml:vim yarn-site.xml
b. 添加如下内容:

<!-- 指定Yarn的主节点 - resourcemanager -->
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop01</value>
</property>
<!-- NodeManager的数据获取方式 -->
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

c. 保存退出

14. 配置slaves

	a. 编辑slaves:vim slaves
	b. 添加从节点信息,例如:hadoop01
	c. 保存退出

15. 配置hadoop的环境变量

	a. 编辑profile文件:vim /etc/profile
		b. 添加Hadoop的环境变量,例如:
		export HADOOP_HOME=/home/software/hadoop-2.7.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
		c. 保存退出
		d. 重新生效:source /etc/profile
		e. 格式化namenode:hadoop namenode -format

16. 启动hadoop:start-all.sh

二、注意事项

1. 如果Hadoop的配置没有生效,那么需要重启Linux
2. 在格式化的时候,会有这样的输出:Storage directory /tmp/hadoop-root/dfs/name has been successfully formatted。如果出现这句话,说明格式化成功
3. Hadoop如果启动成功,会出现5个进程:Namenode,Datanode,Secondarynamenode,ResourceManager,NodeManager
  1. Hadoop启动成功后,可以通过浏览器访问HDFS的页面,访问地址为:IP地址:50070
  2. Hadoop启动成功后,可以通过浏览器访问Yarn的页面,访问地址为:http://IP地址:8088

三、 常见问题

  1. 执行Hadoop指令,比如格式化:hadoop namenode -format 出现:command找不到错误
    **解决方案:**检查:/etc/profile的Hadoop配置
  2. 少HFDS相关进程,比如少namenode,datanode
    **解决方案:**可以去Hadoop 安装目录下的logs目录,查看对应进程的启动日志文件。
    **方式一:**①先停止HDFS相关的所有的进程(stop-all.sh 或 kill -9)②再启动HDFS(start-dfs.sh)
    **方式二:**①先停止HDFS相关的所有的进程 ②删除元数据目录 ③重新格式化:hadoop namenode -format④启动Hadoop:start-all.sh
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值