hadoop-2.6.5-centos-6.7集群的安装

一下都是在hadoop用户下操作的

1.下载hadoop-2.6.5-centos-6.7.tar

上传到Hadoop01


软件安装包放在soft下  安装在Apps下


2.修改Hadoop的配置文件

2.1修改vi hadoop-env.sh 
把他改为:export JAVA_HOME=/usr/local/jdk1.8.0_73
2.2修改vi core-site.xml 

<configuration>
        
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://hadoop01:9000</value>
        </property>



        <!-- 指定hadoop运行时产生文件的存储目录 -->
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/home/hadoop/hadoop-2.6.5/tmp</value>
        </property>
<configuration>
2.3修改vi hdfs-site.xml  

<configuration>

        <!-- 指定HDFS副本的数量 -->
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>

        <property>
                <name>dfs.secondary.http.address</name>
                <value>hadoop02:50090</value>
        </property>




</configuration>
2.4修改 mapred-site.xml
mv mapred-site.xml.template mapred-site.xml
<configuration>
        <!-- 指定mr运行在yarn上 -->
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>
2.5修改vi yarn-site.xml 

<configuration>

        <!-- Site specific YARN configuration properties -->
        <!-- 指定YARN的老大(ResourceManager)的地址 -->
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop01</value>
        </property>

        <!-- reducer获取数据的方式 -->
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
</configuration>
2.6修改vi slaves 

hadoop02
hadoop03
hadoop04


3修改Hadoop环境变量

sudo vi /etc/profile
export JAVA_HOME=/usr/local/jdk1.8.0_73
export HADOOP_HOME=/home/hadoop/apps/hadoop-2.6.5
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

4.分发安装包到各个节点

scp -r hadoop-2.6.5/ hadoop02:$pwd
scp -r hadoop-2.6.5/ hadoop03:$pwd
scp -r hadoop-2.6.5/ hadoop04:$pwd

5.在主节点上初始化namenode

hadoop namenode -format

6 启动hdfs 

sbin/start-dfs.sh 
结果在主节点上启动了一个 namenode守护进程
结果在每个从节点上都启动了一个datanode守护进程
在特定的节点上启动了一个secondnamenode守护进程

7 启动yarn

sbin/start-yarn.sh 
结果在yarn的主节点上启动了一个resourcemanager守护进程
在yarn的从节点上都启动了一个nodemanager守护进程

8 测试集群是否安装成功

1 测试hdfs是否安装成功
hadoop fs -ls /

2.测试yarn是否安装成功
  
cd  /home/hadoop/apps/hadoop-2.6.5/share/hadoop/mapreduce
hadoop jar hadoop-mapreduce-examples-2.6.5.jar pi 10 10










9.测试web界面的访问


1 第一种方式http://192.168.197.201:50070

2 第二种http://hadoop01:50070
修改

Windows下主机名和IP映射设置

 打开系统目录:c:/windows/system32/drivers/etc找到hosts文件,打开hosts文件并在最后面添加一条记录

192.168.197.201  hadoop01 192.168.197.202  hadoop02 192.168.197.203  hadoop03 192.168.197.204  hadoop04











  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值