hadoop-2.7.7安装

目录

        1.hadoop 安装地址

2.解压hadoop-2.7.7.tar.gz 

3.修改hosts文件

4.编辑/core-site.xml

5.编辑hdfs-site.xml文件

6.编辑mapred-site.xml.template

7.编辑yarn-site.xml

8.编辑/hadoop-env.sh

9. 编辑yarn-env.sh

10.格式化

11.启动hdfs与yarn

12.验证



1.hadoop 安装地址

本人的安装地址为[root@localhost app]# pwd

/opt/app

在shell中可以直接用wget.

wget http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz

下载地址:

https://www-eu.apache.org/dist/hadoop/core/

 

2.解压hadoop-2.7.7.tar.gz 

[root@localhost app]# tar -zxvf hadoop-2.7.7.tar.gz

 

3.修改hosts文件

[root@localhost ~]# vim /etc/hosts

文中加入:

192.168.56.66 hadoop1

 

 

4.编辑/core-site.xml

文件位置:

[root@localhost hadoop]# pwd

/opt/app/hadoop-2.7.7/etc/hadoop

在configuration标签中加入以下内容,【注:请读者一定按照自己的实际情况设置,例如主机的名称这里是hadoop1】

 

<configuration>

 <property>

                <name>hadoop.tmp.dir</name>

                <value>/usr/hadoop/tmp</value>

                <description>Abase for other temporary directories.</description>

        </property>

        <property>

                <name>fs.defaultFS</name>

                <value>hdfs://hadoop1:9000</value>

        </property>

        <property>

                <name>io.file.buffer.size</name>

                <value>4096</value>

        </property>

</configuration>

 

以上文中引用了一个临时目录,需要自己创建:

[root@localhost hadoop]# mkdir -p /usr/hadoop/tmp

 

5.编辑hdfs-site.xml文件

文件位置:

[root@localhost sbin]# pwd

/opt/app/hadoop-2.7.7/etc/hadoop

在configuration标签中加入以下内容

<property>

                <name>dfs.namenode.name.dir</name>

                <value>file:///usr/hadoop/dfs/name</value>

        </property>

        <property>

                <name>dfs.datanode.data.dir</name>

                <value>file:///usr/hadoop/dfs/data</value>

        </property>

        <property>

                <name>dfs.replication</name>

                <value>2</value>

        </property>

        <property>

                <name>dfs.permissions</name>

                <value>false</value>

        </property>

 

以上文中引用了一个临时目录,需要自己创建:

[root@localhost hadoop]# mkdir -p /usr/hadoop/dfs/name

[root@localhost hadoop]# mkdir -p /usr/hadoop/dfs/data

6.编辑mapred-site.xml.template

文件位置:

[root@localhost sbin]# pwd

/opt/app/hadoop-2.7.7/etc/hadoop

 

在configuration标签中加入以下内容:

<property>

                <name>mapreduce.framework.name</name>

                <value>yarn</value>

                <final>true</final>

        </property>

 

 

7.编辑yarn-site.xml

文件位置:

[root@localhost sbin]# pwd

/opt/app/hadoop-2.7.7/etc/hadoop

 

在configuration标签中加入以下内容:

<property>

                <name>yarn.resourcemanager.hostname</name>

                <value>hadoop1</value>

        </property>

        <property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

    </property>

 

8.编辑/hadoop-env.sh

文件位置:

[root@localhost sbin]# pwd

/opt/app/hadoop-2.7.7/etc/hadoop

查看环境变量:

[root@localhost hadoop]# echo $JAVA_HOME

/usr/java/jdk1.8.0_131

添加环境变量:

export JAVA_HOME=/usr/java/jdk1.8.0_131

 

9. 编辑yarn-env.sh

文件位置:

[root@localhost sbin]# pwd

/opt/app/hadoop-2.7.7/etc/hadoop

添加环境变量:

export JAVA_HOME=/usr/java/jdk1.8.0_131

10.格式化

文件位置:

[root@localhost bin]# pwd

/opt/app/hadoop-2.7.7/bin

[root@localhost bin]# ./hdfs namenode -format

11.启动hdfs与yarn

文件位置:

[root@localhost sbin]# pwd

/opt/app/hadoop-2.7.7/sbin

 

[root@localhost sbin]# ./start-dfs.sh

[root@localhost sbin]# ./start-dyarn.sh

12.验证

[root@localhost ~]# jps

5299 SecondaryNameNode

5731 NodeManager

5958 Jps

5016 NameNode

5449 ResourceManager

 

 

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值