安装hadoop集群

安装三个节点的hadoop集群
一、准备软件有
CentOS-7-x86_64-DVD-1511.iso
jdk-8u112-linux-x64.tar.gz
hadoop-2.6.4-src.tar.gz

二、安装CentOS7
使用VMware安装三台CentOS7,
三个系统的虚拟机配置是1G内存,8核处理器,网络是NAT模式
系统安装选择的是
- 最小安装
- 自选分区
安装完成之后,把三个系统设置成静态IP
vi /etc/sysconfig/network-scripts/ifcfg-eno16777736
下面几个字段有的修改,没有的添加
BOOTPROTO=static
IPADDR=192.168.2.3(每个系统不同的ip)
GATEWAY=192.168.2.2
DNS1=192.168.2.2
NETMASK=255.255.255.0
ONBOOT=yes
三、安装jdk1.8
我的jdk安装包放在/usr/local/下面,安装命令看下面:
tar -zxvf jdk-8u112-linux-x64.tar.gz
vi /etc/profile
在最下面添加jdk的相关信息
export JAVA_HOME=/usr/local/jdk1.8.0_112
export CLASS_PATH=.: CLASSPATH: JAVA_HOME/jre/lib: JAVAHOME/jre/libexportPATH= PATH: JAVAHOME/bin: JAVA_HOME/jre/bin
保存之后记得命令source /etc/profile,不然没有生效哦。
最后用javac -version, java -version看看是不是jdk1.8吧。
ps:有的人以前安装的时候会有原来就安装了jdk的情况,我这里选择的是最小安装方式所以不会有jdk已经安装了的情况,只有在选择基本服务器等其他安装方式的时候会帮你安装上jdk。
四、修改/etc/hosts文件
vi /etc/hosts
在最后添加
192.168.2.3 bdh1
192.168.2.4 bdh2
192.168.2.5 bdh3
三台机器都要这么做, 这么做是为了访问的方便,可以ping bdh2试试哦。
五、在CentOS中添加hadoop用户
useradd hadoop
passwd hadoop 在root用户登录下给hadoop用户创建密码
六、建立hadoop用户之间相互信任
su - hadoop
ssh-keygen -t rsa 全部回车即可,三台机器都要操作
把bdh1, bdh2, bdh3机器的id_rsa.pub的内容全部添加到/home/hadoop/.ssh/authorized_keys中再保存到三台机器
就完成了,可以ssh bdh1, ssh bdh2, ssh bdh3跳转试试,第一次会询问是否保存缓存,yes就可以了。
七、关闭防火墙,SELINUX
可以先使用
systemctl -a | grep service 查看一下当前有哪个service在运行
关闭selinux
vi /etc/selinux/config
把SELINUX=enforcing换成SELINUX=disabled
关闭防火墙
systemctl stop firewalld.service
systemctl disable firewalld.service
可以用
systemctl list-unit-files查看所有已启动服务列表
systemctl is-enabled firewalld.service查看服务启动设置是enable不是disable
之后重启系统selinux的设置就会永久生效
八、安装hadoop集群
1、解压hadoop
在/usr/local目录下新建一个目录hadoop,然后使用
tar -zxvf hadoop-2.6.4.tar.gz解压hadoop
在/usr/local/hadoop目录下分别新建tmp, name , data 三个目录
2、修改hadoop的{hadoop_home}/etc/hadoop下的配置文件

《1》core-site.xml文件
 <configuration>                                             
        <property>                                          
                <name>fs.defaultFS</name>                   
                <value>hdfs://bdh1:9000</value>             
        </property>                                         
        <property>                                          
                <name>io.file.buffer.size</name>            
                <value>131072</value>                       
        </property>                                         
        <property>                                          
                <name>hadoop.tmp.dir</name>                 
                <value>/usr/local/hadoop/tmp</value>        
        </property>                                         
        <property>                                          
                <name>hadoop.proxyuser.root.hosts</name>    
                <value>bdh1</value>                         
        </property>                                         
        <property>                                          
                <name>hadoop.proxyuser.root.groups</name>   
                <value>*</value>                            
        </property>                                         
</configuration>                                            
《2》hdfs-site.xml

<configuration>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>bdh1:9001</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/usr/local/hadoop/name</value>
                <final>true</final>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/usr/local/hadoop/data</value>
                <final>true</final>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
                <name>dfs.permissions</name>
                <value>false</value>
        </property>
</configuration>
《3》mapred-site.xml
<configuration>                                                      
        <property>                                                   
                <name>mapreduce.framework.name</name>                
                <value>yarn</value>                                  
        </property>                                                  
        <property>                                                   
                <name>mapreduce.jobhistory.address</name>            
                <value>bdh1:10020</value>                            
        </property>                                                  
        <property>                                                   
                <name>mapreduce.jobhistory.webapp.address</name>     
                <value>bdh1:19888</value>                            
        </property>                                                  
</configuration>                                                     
《4》yarn-site.xml
<configuration>

<!-- Site specific YARN configuration properties -->
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce.shuffle</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
                <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
                <name>yarn.resourcemanager.address</name>
                <value>bdh1:8032</value>
        </property>
        <property>
                <name>yarn.resourcemanager.scheduler.address</name>
                <value>bdh1:8030</value>
        </property>
        <property>
                <name>yarn.resourcemanager.resource-tracker.address</name>
                <value>bdh1:8031</value>
        </property>
        <property>
                <name>yarn.resourcemanager.admin.adress</name>
                <value>bdh1:8033</value>
        </property>
        <property>
                <name>yarn.resourcemanager.webapp.address</name>
                <value>bdh1:8088</value>
        </property>

</configuration>
《5》hadoop-env.sh在相应位置找到并修改成如下信息
export JAVA_HOME=/usr/local/jdk1.8.0_112
export HADOOP_PREFIX=/usr/local/hadoop/hadoop-2.6.4
《6》yarn-env.sh在相应位置找到并修改成如下信息
export JAVA_HOME=/usr/local/jdk1.8.0_112
《7》slaves文件的localhost删除,添加如下两行
bdh2
bdh3
最后,在/etc/profile文件中添加
#hadoop variable settings
export HADOOP_HOME=/usr/local/hadoop/hadoop-2.6.4
#export JAVA_LIBRARY_PATH=$JAVA_LIBRARY_PATH:$HADOOP_HOME/lib/native
#export HADOOP_HDFS_HOME=$HADOOP_HOME
#export HADOOP_MAPRED_HOME=$HADOOP_HOME
#export HADOOP_YARN_HOME=$HADOOP_HOME
#export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/lib
#export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
上面的配置的那些在三台机器上都是要一样的

九、启动hadoop集群
使用命令
start-dfs.sh
start-yarn.sh
就可以启动集群了,
用jps命令可以看到在主服务器bdh1上有
SecondaryNameNode
ResourceManager
NameNode
三个服务
在从服务器上有DataNode服务启动
在浏览器里面可以输入网址http://192.168.2.3:8088/http://192.168.2.3:50070 查看集群信息
在命令行使用hdfs的命令
hdfs dfs -ls /
hdfs dfs -mkdir /usr
可以查看或者创建目录说明安装成功了

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值