Centos7&Hadoop分布式

参照Hadoop包里面的share的doc的离线文档

说明:搭建分布式至少两台主机,我这里是以三台为主 master slave1 slave2


  1. 解压 重命名 环境变量

    1.	tar -zxvf 解压包名(jdk的包,hadoop包)
    2.	mv 文件名 重命名
    3.	vi /etc/profile(环境变量对所有用户有效)vi ~/.bash_profile	(只对当前用户有效)
            export JAVA_HOME=/usr/local/src/jdk
            export HADOOP_HOME=/usr/local/src/hadoop
            export PATH=$JAVA_HOME/bin:$PATH
            export PATH=$HADOOP_HOME/bin:$PATH
            export PATH=$HADOOP_HOME/sbin:$PATH
    4.	刷新环境变量	source ~/.bash_profile
  2. hadoop-env.sh

    1.	进入到hadoop/etc/hadoop
    2.	vi hadoop-env.sh 
        修 export JAVA_HOME=/usr/local/src/jdk
  3. core.site.xml

    vi core.site.xml 
     <property>
         <name>fs.defaultFS</name>
         <value>hdfs://master:9000</value>
     </property>
     <property>
         <name>hadoop.tmp.dir</name>
         <value>/usr/local/src/hadoop/tmp</value>
     </property>
  4. hdfs-site.xml

    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
  5. mapred-site.xml

    cp mapred-site.xml.template  mapred-site.xml
            <property>
            	<name>mapreduce.framework.name</name>
            	<value>yarn</value>
            </property>
  6. yarn-site.xml

    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.class</name>	                
        <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler
        </value>
    </property>
    <property>
        <name>yarn.nodemanager.pmem-check-enabled</name>
        <value>false</value>
    </property>
    <property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>false</value>
    </property>
  7. 修改slaves

    1.	vi slaves
        master
        slave1
        slave2
  8. 分发配置文件

    1.	scp -r /usr/local/src/hadoop slava1:/usr/local/src
    2.	scp ~/.bash_profile slave1:~
  9. 格式化namenode并启动

    1.	hdfs namenode -format
    2.	cd hadoop/sbin	
        start-all.sh/stop-all.sh
    3.	查看namenode和resourcemanager
        主机IP:50057
        主机IP:8088

    需要全套搭建最简化的视频与全套安装包的请添加群924338546

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值