Windows7下eclipse调试Fedora虚拟机的hadoop+hbase伪分布式(第二节)

二、Fedora服务器hadoop安装过程:

1. 配置ssh本地登录证书

注:单机伪分布模式运行情况下,Hadoop不会使用SSH进行通信,可以省略如下步骤

[root@localhost hadoop-1.2.1]# which ssh

/usr/bin/ssh

[root@localhost hadoop-1.2.1]# which ssh-keygen

/usr/bin/ssh-keygen

[root@localhost hadoop-1.2.1]# which sshd

/usr/sbin/sshd

[root@localhost hadoop-1.2.1]# ssh-keygen -t rsa

Generating public/private rsa key pair.

Enter file in which to save the key (/root/.ssh/id_rsa):

/home/hadoop/hadoop-1.2.1/.ssh/id_rsa ----需要在hadoop应用下建立.ssh文件目录

Enter passphrase (empty for no passphrase):

Enter same passphrase again:

Your identification has been saved in

 /home/hadoop/hadoop-1.2.1/.ssh/id_rsa.

Your public key has been saved in

 /home/hadoop/hadoop-1.2.1/.ssh/id_rsa.pub.

The key fingerprint is:

51:67:a7:2d:58:09:60:eb:3e:f8:18:bf:8c:56:96:a0 root@localhost.localdomain

The key's randomart image is:

+--[ RSA 2048]----+

|        o.o.+..  |

|       . o =.+   |

|        o . o .  |

|      .. .   .   |

|     . .S.       |

|    E  o+        |

|      ooo        |

|      .B .       |

|     .o =.       |

+-----------------+

最终将在/home/hadoop/.ssh/路径下生成私钥id_rsa和公钥id_rsa.pub

[root@localhost hadoop-1.2.1]# cd /home/hadoop/hadoop-1.2.1/.ssh

[root@localhost .ssh]#ls –l

total 8

-rw-------. 1 root root 1675 Nov 25 20:58 id_rsa

-rw-r--r--. 1 root root  408 Nov 25 20:58 id_rsa.pub

修改sshd服务配置文件:

[root@localhost .ssh]# vi /etc/ssh/sshd_config

修改如下内容:

RSAAuthentication yes

PubkeyAuthentication yes

AuthorizedKeysFile      .ssh/authorized_keys

保存并退出,然后重启sshd服务

[root@localhost .ssh]# service sshd restart

ssh证书公钥拷贝至/home/hadoop/hadoop-1.2.1/.ssh/authorized_keys文件中

[root@localhost .ssh]# ls

id_rsa  id_rsa.pub

[root@localhost .ssh]# cat id_rsa.pub >> authorized_keys

root用户需要修改~/.ssh/authorized_keys文件的权限为644~/.ssh文件夹的权限为700/home/hadoop文件夹的权限为700(权限正确是成功认证的先决条件)

[root@localhost .ssh]# chmod 644 authorized_keys

[root@localhost .ssh]# ssh 192.168.11.129

The authenticity of host '192.168.11.129 (192.168.11.129)' can't be established.

RSA key fingerprint is

9c:7a:90:bf:ab:7a:22:fb:5c:7b:2c:7c:06:eb:a6:ee.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added '192.168.11.129' (RSA) to the list of known hosts.

root@192.168.11.129's password:

Last login: Sun Nov 23 19:10:12 2014 from 192.168.11.1

2.在安装hadoop应用服务前,需要安装JDK运行环境

[root@localhost ~]# java -version

java version "1.8.0_25"

Java(TM) SE Runtime Environment (build 1.8.0_25-b17)

Java HotSpot(TM) Client VM (build 25.25-b02, mixed mode, sharing)

如果没有安装需要到http://java.com/zh_CN/download/help/linux_install.xml下载安装包jre-7u71-linux-i586.tar.gz

Java文件将安装在当前目录jre1.7.0_07目录中 ,解压缩 tarball 并安装 Java

tar zxvf jre-7u7-linux-i586.tar.gz

rpm –ivh jre-7u7-linux-i586.rpm

设置java环境变量(若为开发者使用,建议将所有用户的shell都有权使用这些环境变量)

用文本编辑器打开/etc/profile·profile文件末尾加入:

export JAVA_HOME=/usr/java/jre1.8.0_25

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
注解
   a. 你要将/usr/java/jre1.8.0_25 改为你的jre安装目录
   b. linux下用冒号“:”来分隔路径
   c. $PATH / $CLASSPATH / $JAVA_HOME 是用来引用原来的环境变量的值。在设置环境变量时特别要注意不能把原来的值给覆盖掉了,这是一种常见的错误。
   d. CLASSPATH中当前目录“.”不能丢,把当前目录丢掉也是常见的错误。
    e. export是把这三个变量导出为全局变量。
   f. 大小写必须严格区分。

使环境变量的更改马上起作用:source /etc/profile

检查环境变量更改是否生效: java -version

 3.安装hadoop

Hadoop官网下载hadoop-1.2.1.tar.gz并上传至服务器/home/hadoop路径下

1.  [root@localhost ~]$ tar -xzf hadoop-1.2.1.tar.gz  

2.  [root@localhost ~]$ rm -rf hadoop-1.2.1.tar.gz   

3.  [root@localhost ~]$ cd hadoop-1.2.1/conf/  

4.  [root@localhost  conf]$ vi hadoop-env.sh 

JAVA_HOME指向第二步安装的JDK所在目录

1.  # The java implementation to use.  Required.  

2.  export JAVA_HOME=/usr/java/jre1.8.0_25 

保存并退出

[root@localhost ~]$ vi ~/.bash_profile 

4.修改hadoop配置文件

伪分布式使用IP地址而不是主机名或localhost的好处是不需要修改/etc/hosts,当然全分布式还是需要修改的。

修改core-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

   <property>

       <name>fs.default.name</name>

       <value>hdfs://192.168.11.129:8020</value>

   </property>

</configuration>

修改mapred-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

  <property>

      <name>mapred.job.tracker</name>

      <value>192.168.11.129:8021</value>

  </property>

</configuration>

修改hdfs-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

   <property>

        <name>dfs.name.dir</name>

        <value>/home/hadoop/dfsname</value>

   </property>

   <property>

        <name>dfs.data.dir</name>

        <value>/home/hadoop/dfsdata</value>

   </property>

   <property>

      <name>dfs.replication</name>

      <value>1</value>

   </property>

   <property>

      <name>dfs.permissions</name>

      <value>false</value>

      <description>permissions is false</description>

   </property>

</configuration>

通过以上步骤hadoop即安装配置完成,进入hadoop-1.21.1主目录的bin目录下

#./hadoop namenode -format    //格式化hadoopnamenode,很多时候namenode启动不

起来可以试试格式化一下。

#./start-all.sh     //启动hadoop的各个监护进程。

可以通过http://localhost:50070   http://localhost:50030 查看namenodejobtracker

#./stop-all.sh    //关闭hadoop的各个监护进程

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值