centos7+hadoop 2.8 的多节点集群搭建

1、集群IP


192.168.2.218  hadoop-slave-1
192.168.2.4 hadoop-master


2、java 选用自带的java 1.7.0. openjdk

关于java版本和hadoop版本的搭配可以参考hadoop官方wiki

https://wiki.apache.org/hadoop/HadoopJavaVersions

3、配置/etc/proflie

JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME PATH CLASSPATH

4、创建hadoop 账户并设计密码

useradd -m hadoop

passwd hadoop

5、配置免秘钥登录

切换到hadoop用户

ssh-keygen -t rsa 一路回车

在hadoop 家目录下(/home/hadoop)多出 .ssh/ 文件夹,里面包含以下文件

config  id_rsa  id_rsa.pub  known_hosts

然后 cat id_rsa.pub >authorized_keys 

chmod 644  authorized_keys 

然后将.ssh copy到  hadoop-slave-1  hadoop-slave-2的数据节点下。验证免密登录是否成功

6、下载 hadoop-2.8.0 到家目录



7.解压到当前目录 tar -zxvf hadoop-2.8.0.tar.gz



8、修改配置文件:


9、core-site.xml 的配置如下:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.2.4:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/home/hadoop/tmp</value>
    </property>
    <property>
        <name>io.file.buffer.size</name>
        <value>131702</value>
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
</configuration>

10、hdfs-site.xml配置如下

<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/home/hadoop/tmp</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/data0,file:/data1,file:/data2,file:/data3,file:/data4,file:/data5,file:/data6,file:/data7,file:/data8,file:/data9,file:/data10,file:/data11,file:/data12,file:/data13,file:/data14,file:/data15,file:/data16,file:/data17,file:/data18,file:/data19,file:/data20,file:/data21,file:/data22,file:/data23,file:/data24,file:/data25,file:/data26,file:/data27,file:/data28,file:/data29,file:/data30,file:/data31,file:/data32,file:/data33,file:/data34,file:/data35</value>  //因为datanode 有多块磁盘,此处填写这些磁盘的路径
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>192.168.2.4:9001</value>
    </property>
    <property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
    </property>


    <property>
        <name>dfs.namenode.datanode.registration.ip-hostname-check</name>
        <value>false</value>
    </property>
</configuration>

11、配置slave如下

[hadoop@localhost hadoop]$ cat slaves

192.168.2.218


12、配置mapred-site.xml

<configuration>
<property>
        <name>mapred.job.tracker</name>
<value>192.168.2.4:9001</value>
</property>


</configuration>

13、配置hadoop-env.sh

export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk

export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.8.0/etc/hadoop

export HADOOP_OPTS="-Djava.net.preferIPv4Stack=true -Dsun.security.krb5.debug=true -Dsun.security.spnego.debug"


14、格式化文件


bin/hadoop namenode -format

15、启动集群:

 ./sbin/start-all.sh

停止集群使用 ./sbin/stop-all.sh


16、查看集群状态

http://192.168.2.4:8088

http://192.168.2.4:50070

17、向HDFS copy文件测试




  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值