hadoop伪分布式安装步骤

hadoop伪分布式安装步骤:(hadoop资源:http://download.csdn.net/download/qq_36952300/10117094

                                            (jdk资源:http://download.csdn.net/download/qq_36952300/10117137)

1.虚拟机网络适配器设置

   

2.设置静态IP

    2.1 修改ip地址

      

     

    

    2.2 重启网卡 service network restart

      验证:ifconfig

      结果:

      

3.修改主机名(可选)

      3.1 hostname   主机名

      3.2 修改配置文件 /etc/sysconfig/network  命令:vi /etc/sysconfig/network

      3.3 把主机名与ip地址绑定:执行命令 vi /etc/hosts 增加一行内容

                                                ip地址(192.168.65.100) 主机名(hadoop)

   验证:ping 主机名

   结果:

   

4.关闭防火墙

     4.1 执行命令 service iptables stop

       验证: service iptables status

       

       4.2  关闭防火墙的自动运行:chkconfig iptables off

       验证: chkconfig --list | grep iptables

       结果:

      

5.设置SSH自动登录

     5.1 在usr目录下的.ssh中执行命令:ssh-keygen -t rsa(中间按三次回车键)

     

      5.2 在usr目录下的.ssh中执行命令:cp  id_rsa.pub  authorized_keys或在其他目录下可以执行cp usr/.ssh/id_rsa.pub  usr/.ssh/authorized_keys

     

6.安装JDK(安装在usr/local目录下)—自己选择安装目录

    6.1 删除usr/local目录下所有内容:rm -rf /usr/local *

    6.2 把jdk文件从windows下复制到usr/local下(使用工具WinSCP)

    6.3 赋jdk文件操作权利:chomd  u+x  jdk文件名

    6.4 解压缩:./jdk文件名

    6.5 设置环境变量(/etc/profile)命令:vi /etc/profile 

          添加内容: export JAVA_HOME=/usr/local/Jjdk(jdk的所在目录)

                             export PATH=.:$JAVA_HOME/bin:$PATH

   6.6 让配置立即生效命令:source /etc/profile

   验证:java -version

   结果:

   

7.安装hadoop

   7.1 解压缩:tar -zxvf hadoop文件名

    7.2 设置环境变量(/etc/profile)命令vi /etc/profile 

          添加内容: export HADOOP_HOME=/usr/local/hadoop(hadoop的所在目录及文件名)

          修改内容: export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

          配置完整内容:

                                  

   7.3 让配置立即生效命令:source /etc/profile

   7.4 修改hadoop/conf目录下的配置文件:hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml

         hadoop-env.sh:

         export JAVA_HOME=/usr/local/jdk/

         

         core-site.xml:

        <configuration>
             <property>
                  <name>fs.default.name</name>
                  <value>hdfs://hadoop0:9000</value>
                  <description>change your own hostname</description>
            </property>
           <property>
                <name>hadoop.tmp.dir</name>
               <value>/usr/local/hadoop/tmp</value>
           </property>  
      </configuration>

       

     hdfs-site.xml

      <configuration>
          <property>
               <name>dfs.replication</name>
               <value>1</value>
         </property>
        <property>
              <name>dfs.permissions</name>
              <value>false</value>
        </property>
    </configuration>

    

   mapred-site.xml:

      <configuration>
         <property>
            <name>mapred.job.tracker</name>
            <value>hadoop0:9001</value>
            <description>change your own hostname</description>
        </property>
    </configuration>

    

    7.5 格式化hadoop:hadoop namenode -format

    7.6 启动:start-all.sh

    

    验证—方式1:jps

               结果:

              

                       —方式2:虚拟机浏览器url输入:hadoop:50070

               结果:

           


              虚拟机浏览器url输入:hadoop:50030 

              结果:      

  • 2
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值