在NFS上的Hadoop配置

初到美国这边的实验室,老板很爽快的给了个小集群,让我配置下Hadoop. 我很快就答应了.

不过问题也随之而已,其一是给的集群其实就是一远程登录账户,而且没有root权限;其二集群共10个节点,但是共享存储的。本人这方面知识少,找了一个星期资料,才知道是NFS的。

后来找到了一个帖子:Hadoop - 將Hadoop建構在NFS以及NIF,受到启发.

不过给的权限确实小,并无root权限,即能操作的目录仅在/home/my_user_name/目录下,幸好后来本人得知NFS下/tmp目录也是可以用的. 所以在这种艰苦的环境下,只能将用/tmp了. 

     其缺点就是:服务器的重启,/tmp会清空,从而Hadoop集群里的数据将丢失,好在本人只是做点research,不碍事!

     下面讲下配置吧!

  1. Hadoop version:  hadoop-1.0.1  
  2. Java version: jdk1.6.0_12  

0. 设置Java路径, 因为是NFS,而且本人权限只是user, 所以只能修改$HOME/.bash_profile

  1. export JAVA_HOME=/usr/java/jdk1.6.0_12  
  2. export JRE_HOME=/usr/java/jdk1.6.0_12/jre  
  3. export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib  
  4. export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH  

然后使其生效:

  1. source $HOME/.bash_profile  

1. 编辑 conf/hadoop-env.sh, 添加JAVA_HOME

  1. export JAVA_HOME=/usr/java/jdk1.6.0_12/  
  1. export HADOOP_LOG_DIR=/tmp/hadoop_username_log_dir  

2. 将 src/core/core-default.xml, src/hdfs/hdfs-default.xml, src/mapred/mapred-default.xml 复制到 conf下,并重命名为 core-site.xml, hdfs-site.xml, mapred-site.xml, 并编辑这三文件.

  1. <!--core-site.xml-->  
  2. <property>  
  3.   <name>fs.default.name</name>  
  4.   <value>hdfs://head:9000</value>  
  5.   <description>The name of the default file system.  A URI whose  
  6.   scheme and authority determine the FileSystem implementation.  The  
  7.   uri's scheme determines the config property (fs.SCHEME.impl) naming  
  8.   the FileSystem implementation class.  The uri's authority is used to  
  9.   determine the host, port, etc. for a filesystem.</description>  
  10. </property>  
  11.   
  12. <property>  
  13.   <name>hadoop.tmp.dir</name>  
  14.   <value>/tmp/hadoop-1.0.1_${user.name}</value>  
  15.   <description>A base for other temporary directories.</description>  
  16. </property>  
  1. <!--hdfs-site.xml-->  
  2. <property>  
  3.   <name>dfs.replication</name>  
  4.   <value>3</value>  
  5.   <description>Default block replication.   
  6.   The actual number of replications can be specified when the file is created.  
  7.   The default is used if replication is not specified in create time.  
  8.   </description>  
  9. </property>  
  1. <!--mapred-site.xml-->  
  2. <property>  
  3.   <name>mapred.job.tracker</name>  
  4.   <value>head:9001</value>  
  5.   <description>The host and port that the MapReduce job tracker runs  
  6.   at.  If "local", then jobs are run in-process as a single map  
  7.   and reduce task.  
  8.   </description>  
  9. </property>  

3. 这个是最重要的,我们需要再次编辑 conf/hadoop-env.sh,放在第一步编辑是完全可以的,这里放在最后一步,是为了强调!!就是修改HADOOP_LOG_DIR

  1. export HADOOP_LOG_DIR=/tmp/hadoop-1.0.1_log_dir  

4. 测试正常运行




  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值