Hadoop2环境搭建(单机伪分布)

1.下载与安装

我们首先从hadoop的release页面下载需要的版本,我选择的是2.7.1版本,两种文件,source是源代码(想查看源代码可以下载),binary是我们用来搭建环境的安装文件。

将下载的文件解压并设置环境变量,我使用的存放位置是/usr/bigdata/hadoop-2.7.1。
接下来是设置环境变量,首先你需要安装java并设置环境变量,关于java的安装不再赘述,下面是java和hadoop的环境变量设置结果。使用vim操作 /etc/profile 文件,并在文件最后追加如下内容即可(注意修改为你自己的文件路径)。

# set java environment
export JAVA_HOME=/usr/java/jdk1.8.0_65
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin

# set hadoop path
export HADOOP_HOME=/usr/bigdata/hadoop-2.7.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

接下来就是修改hadoop的两个配置文件
①. /usr/bigdata/hadoop-2.7.1/etc/hadoop/hadoop-env.sh
查找文件讲java路径添加进去,如下:

# The java implementation to use.
export JAVA_HOME=/usr/java/jdk1.8.0_65

②. /usr/bigdata/hadoop-2.7.1/etc/hadoop/core-site.xml
在空的configuration节点中添加内容,结果如下:

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <property>
        <name>mapred.job.tracker</name>
        <value>hdfs://localhost:9001</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

③. /usr/bigdata/hadoop-2.7.1/etc/hadoop/mapred-site.xml
你可能看到的是mapred-site.xml.template文件,将其.template后缀删除即可,同样在空的configuration节点中添加内容,结果如下:

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

④. /usr/bigdata/hadoop-2.7.1/etc/hadoop/yarn-site.xml
同样在空的configuration节点中添加内容,结果如下:

<configuration>
    <!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

此时文件配置完成接下来就是启动查看我们设置是否成功了!

2.启动与查看结果
在启动之前你需要确保以下几点均OK:
①.java环境变量已配置并可用
②hadoop环境变量已配置并可用(命令行输入hadoop即可知道)
③防火墙已关闭(在windows中查看hadoop的web页面防火墙可能会阻止)
④格式化hdfs,使用命令:hadoop namenode -format

接下来就可以使用启动命令了,如果在hadoop的环境变量设置中加入了sbin目录,那现在就可以在任意路径下使用start-all.sh启动,如果没有设置这需要到hadoop的安装目录sbin下执行该shell。

①启动结果如下:

[root@localhost ~]# start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /usr/bigdata/hadoop-2.7.1/logs/hadoop-root-namenode-localhost.localdomain.out
localhost: starting datanode, logging to /usr/bigdata/hadoop-2.7.1/logs/hadoop-root-datanode-localhost.localdomain.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /usr/bigdata/hadoop-2.7.1/logs/hadoop-root-secondarynamenode-localhost.localdomain.out
starting yarn daemons
starting resourcemanager, logging to /usr/bigdata/hadoop-2.7.1/logs/yarn-root-resourcemanager-localhost.localdomain.out
localhost: starting nodemanager, logging to /usr/bigdata/hadoop-2.7.1/logs/yarn-root-nodemanager-localhost.localdomain.out
[root@localhost ~]#

正常情况下你将看到上面的结果,如果出现错误建议根据错误提示处理。

②查看是否启动成功,输入jps命令,结果如下:

[root@localhost ~]# jps
8352 NodeManager
7794 NameNode
8085 SecondaryNameNode
8245 ResourceManager
7899 DataNode
8670 Jps
[root@localhost ~]#

上面的结果显示hadoop的五个java进程均在运行,启动成功。

③.使用浏览器查看hadoop的运行状态
首先查看linux的ip地址并确保可以ping通(我的IP地址是:192.168.84.129)
查看NameNode运行状况:http://192.168.84.129:50070
查看ResourceManager状况:http://192.168.84.129:8088

如果均可以打开则表示运行正常。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是Hadoop分布式搭建的步骤: 1.安装Java环境 2.下载Hadoop压缩包并解压 3.配置Hadoop环境变量 4.配置Hadoop的三个核心文件:core-site.xml、hdfs-site.xml、mapred-site.xml 5.格式化HDFS文件系统 6.启动Hadoop 具体步骤如下: 1.安装Java环境 Hadoop是基于Java开发的,因此需要先安装Java环境。可以通过以下命令安装: ```shell sudo apt-get update sudo apt-get install default-jdk ``` 2.下载Hadoop压缩包并解压 可以从Hadoop官网下载最新版本的Hadoop压缩包,也可以使用以下命令下载: ```shell wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz ``` 下载完成后,解压缩: ```shell tar -zxvf hadoop-3.3.1.tar.gz ``` 3.配置Hadoop环境变量 在.bashrc文件中添加以下内容: ```shell export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后运行以下命令使配置生效: ```shell source ~/.bashrc ``` 4.配置Hadoop的三个核心文件:core-site.xml、hdfs-site.xml、mapred-site.xml 在Hadoop的conf目录下,有三个核心文件需要配置:core-site.xml、hdfs-site.xml、mapred-site.xml。 core-site.xml的配置: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` hdfs-site.xml的配置: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/path/to/hadoop/hadoop_data/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/path/to/hadoop/hadoop_data/hdfs/datanode</value> </property> </configuration> ``` mapred-site.xml的配置: ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 5.格式化HDFS文件系统 在Hadoop的bin目录下,运行以下命令格式化HDFS文件系统: ```shell hdfs namenode -format ``` 6.启动HadoopHadoop的sbin目录下,运行以下命令启动Hadoop: ```shell start-all.sh ``` 以上是Hadoop分布式搭建的步骤,如果需要更详细的步骤和说明,可以参考Hadoop官方文档。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值