hadoop-2.7.1的安装

注意:官网提供的都是32位的安装包,64位的安装包需要自己编译 

1  部署
        
            192.168.100.200  master 
            192.168.100.201  slave1
            192.168.100.202  slave2

2  三台安装jdk

             [ root@localhost  local]# ls
            bin  etc  games  hadoop-1.2.1.tar.gz  include  jdk-7u79-linux-x64.tar.gz  lib  lib64  libexec  sbin  share  src
             [ root@localhost  local]# tar -zxvf jdk-7u79-linux-x64.tar.gz
             [ root@localhost  local]# vi /etc/profile
                    
                     JAVA_HOME=/usr/local/jdk1.7.0_79
                    PATH=$JAVA_HOME/bin:$PATH
                    CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
                    export JAVA_HOME
                    export PATH
                    export CLASSPATH

             [ root@localhost  local]#  source /etc/profile

3 完全分布式安装部署                                                                  
          192.168.100.200  master      
         192.168.100.201  slave1        
         192.168.100.202  slave2       
        3.1 配置SSH(三台) 
           [ root@localhost  local]# cd /root
           [ root@localhost  ~]# ssh-keygen -t rsa
                                                      按两次回车
                    [ root@localhost  ~]# cd /root/.ssh
                   [ root@localhost  .ssh]# cp id_rsa.pub authorized_keys         //如果authorized_keys文件中存在的公钥,都可以免密码登陆
                               把各个节点的authorized_keys内容互相拷贝到对方文件中,使得彼此可以免密码登陆
           [ root@localhost  /]# vi /etc/hosts
                               192.168.100.200 master
                               192.168.100.201 slave1
                               192.168.100.202 slave2
                               192.168.100.200 localhost.localdomain    --每一台节点这一行不一致
                   [ root@localhost  /]# hostname
                     localhost.localdomain
        3.2  安装 hadoop
                   
                    [ root@localhost  local]# tar -zxvf hadoop-2.7.1.tar.gz 

                    [ root@localhost  hadoop-2.7.1]# cd etc/hadoop/
                                配置hadoop-env.sh、 core-site.xml  、 hdfs-site.xml  、  mapred-site.xml  、yarn-site.xml 、slave
                     [ root@localhost  conf]# vi hadoop-env.sh
                                 export JAVA_HOME=/usr/local/jdk1.7.0_79
                     [ root@localhost  conf]# vi core-site.xml         //指定namenode的IP和端口
                                 <configuration>
                                    <property>
                                        <name>fs.defaultFS</name>              
                                        <value>hdfs://192.168.100.200:9000</value>   
                                    </property>
                                </configuration>
                  
                     [ root@localhost  conf]# vi hdfs-site.xml        //指定数据节点数据路径,指定数据块复制份数
                            <configuration>
                                    <property>
                                           <name>dfs.replication</name>
                                            <value>2</value>
                                    </property>
                                    <property>
                                            <name>dfs.permissions</name>
                                            <value>false</value>
                                    </property>
                                    <property>
                                            <name>dfs.namenode.secondary.http-address</name>
                                            <value>192.168.100.200:9001</value>
                                    </property>
                            </configuration>
                       
                      [ root@localhost  hadoop-2.7.1]# cp etc/hadoop/mapred-site.xml.template  etc/hadoop/mapred-site.xml
                      [ root@localhost  hadoop-2.7.1]# vi etc/hadoop/mapred-site.xml                                  
                                  <configuration>
                                        <property>
                                               <name>mapreduce.framework.name</name>
                                                <value>yarn</value>
                                       </property>
                                        <property>
                                               <name>mapreduce.jobhistory.address</name>
                                                <value>192.168.100.200:10020</value>
                                        </property>
                                        <property>
                                               <name>mapreduce.jobhistory.webapp.address</name>
                                                <value>192.168.100.200:19888</value>
                                        </property>
                                </configuration>
                    
                     [ root@localhost  hadoop]# vi yarn-site.xml                              
                                     
                                <configuration>
                                        <property>
                                               <name>yarn.nodemanager.aux-services</name>
                                               <value>mapreduce_shuffle</value>
                                        </property>
                                        <property>
                                                   <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
                                                   <value>org.apache.hadoop.mapred.ShuffleHandler</value>
                                        </property>
                                        <property>
                                               <name>yarn.resourcemanager.address</name>
                                                <value>192.168.100.200:8032</value>
                                        </property>
                                        <property>
                                                <name>yarn.resourcemanager.scheduler.address</name>
                                                <value>192.168.100.200:8030</value>
                                        </property>
                                        <property>
                                               <name>yarn.resourcemanager.resource-tracker.address</name>
                                                <value>192.168.100.200:8031</value>
                                        </property>
                                       <property>
                                                   <name>yarn.resourcemanager.admin.address</name>
                                                <value>192.168.100.200:8033</value>
                                        </property>
                                        <property>
                                                   <name>yarn.resourcemanager.webapp.address</name>
                                                    <value>192.168.100.200:8088</value>
                                        </property>
                                </configuration>
                
                     [ root@localhost  conf]# vi slaves             //数据节点所在机器
                                 192.168.100.201
                                192.168.100.202
                    
        3.3 向各个节点复制hadoop

                     [ root@localhost  hadoop]# scp -r /usr/local/hadoop-2.7.1 192.168.100.201:/usr/local
                     [ root@localhost  hadoop]# scp -r /usr/local/hadoop-2.7.1 192.168.100.202:/usr/local

        3.4 格式化HDFS

                    在名称节点运行命令,即master
                     [ root@localhost  hadoop-1.2.1]# cd /usr/local/hadoop-2.7.1/bin/
                     [ root@localhost  bin]# ./hdfs namenode -format
                                
                                                出现successfully  formatted 成功
                                                在你重新格式化分布式文件系统之前,需要将文件系统中的数据先清除,否则,datanode将创建不成功。
        3.5  启动集群
                     禁用防火墙
                      [ root@localhost  bin]#   systemctl stop firewalld.service
                     可以在名称节点上运行
                      [ root@localhost  sbin]# ./start-all.sh 
        
       3.6  查看启动进程

                       [ root@localhost  bin]# /usr/local/jdk1.7.0_79/bin/jps 

                      master上
                     
                      slave上
                     

                    web访问

                                http://192.168.100.200:8088/                   resourcemanager
                               http://192.168.100.200:50070/                  namenode    可以看到live node 为2 
                             
4  eclipse集成hadoop开发环境

                 将 hadoop-eclipse-plugin-2.7.1.jar拷贝到${eclipse} \dropins\plugins
                 打开windows -->showview -->找到Map/Reduce Locaions -->new Hadoop location
                                                  
                 将hadoop-2.7.1解压到本地一份,放d:\下
                
                 将对应的
winutils.exe和 hadoop.dll文件拷贝到hadoop/bin下面
                 之后将hadoop的路径配置为环境变量中
                
                  在项目的src下面新建log4j.properties

                             log4j.rootLogger=INFO, stdout  
                            log4j.appender.stdout=org.apache.log4j.ConsoleAppender  
                            log4j.appender.stdout.layout=org.apache.log4j.PatternLayout  
                            log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n  
                            log4j.appender.logfile=org.apache.log4j.FileAppender  
                            log4j.appender.logfile.File=target/spring.log  
                            log4j.appender.logfile.layout=org.apache.log4j.PatternLayout  
                            log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值