hadoop 2.64 集群安装

准备好4个虚拟机
网络规划好
--------------------------------------------
规划好网络
me01 namenode  ResourceManager  SecondaryNameNode  192.168.1.125
me02 datanode  NodeManager 192.168.1.126
me03 datanode  NodeManager 192.168.1.127
me04 datanode  NodeManager 192.168.1.128


注:me01 02 03 04是配置主机名称
修改的地方在
vi /etc/sysconfig/network
HOSTNAME=me01
顺带修改 vim /etc/hosts文件
192.168.1.125 me01
192.168.1.126 me02
192.168.1.127 me03
192.168.1.128 me04
-------------------------------------------------
关闭防火墙
service iptables stop
chkconfig  iptables off
两个命令加起来,永久性关闭防火墙
-------------------------------------------------
安装jdk
[root@me01 local]# tar -zxvf jdk-7u79-linux-x64.tar.gz 
配置环境变量 vim /etc/profile 在最下添加
export JAVA_HOME=/usr/local/jdk
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH
------------------------------------------------
 将jdk分发到另外三台主机上
scp -r ./jdk  root@me02:/usr/local
以此分发下去并且配置环境变量
-----------------------------------------------------
配置me01主机到其他三台主机的免密登录
将目录切换为 hadoop主目录下
cd ~
使用  ssh-keygen -t rsa (四个回车)
将公钥拷贝给每个主键
ssh-copy-id localhost

-------------------------------------------------------到此为止,hadoop前期准备完成

hadoop 安装步骤

1、上传
2、解压
3、修改配置文件
4、配置环境变量
5、启动
解压hadoop
tar -zxvf hadoop-2.6.4.tar.gz -C /home/hadoop/apps
------------------------------------------------------------------------------------------
进入hadoop配置文件地方
cd /home/hadoop/apps/hadoop-2.6.4/etc/hadoop
修改5个文件
第一个 hadoop-env.sh
第二个 core-site.xml
第三个 hdfs-site.xml  
第四个:mapred-site.xml.template
第五个:yarn-site.xml
第六个:slave
开始修改第一文件
vim hadoop-env.sh
export JAVA_HOME=/usr/loca/jdk
---------------------------------------------------------------------------------------------
修改第二个文件
vim core-site.xml
<!--指定hdfs的nameNode地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://weekend-1206-01:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-2.4.1/tmp</value>
   </property>
-----------------------------------------------------------------------------------------------------
修改第三个文件
vim hdfs-site.xml 
<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<!--指定SecondaryNameNode位置-->
<property>
<name>dfs.secondary.http.address</name>
<value>192.168.1.152:50090</value>
</property>
----------------------------------------------------------------------------------------------------
修改第四个文件
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
--------------------------------------------------------------------------------------------------
修改第五个文件
vim yarn-site.xml
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>weekend-1206-01</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
-------------------------------------------------------------------------------------------------------
修改第六个文件
vim slave


me02
me03
me04
-------------------------------------------------------------------------------------------------------
配置环境变量
vim /etc/profile
export HADOOP_HOME=/itcast/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin


source /etc/profile
-----------------------------------------------------------------------------------------------------------
分发hadoop到其他三台机器上


scp -r ./apps me02:/home/hadoop/
scp -r ./apps me03:/home/hadoop/
scp -r ./apps me04:/home/hadoop/


并且在其他三台主机上配置hadoop环境变量
------------------------------------------------------------------------------------------------------------
格式化namenode
hdfs namenode -format (hadoop namenode -format)


启动 HDFS
sbin/start-dfs.sh
启动 Yarn
        sbin/start-yarn.sh


http://192.168.1.125:50070 (HDFS管理界面)


http://192.168.1.125:8088 (MR管理界面)


安装版下载:https://download.csdn.net/download/caiwen_5050/10450372





  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值