关闭

hadoop+zookeeper+hbase环境搭建的一些问题

401人阅读 评论(0) 收藏 举报
分类:
  • host文件配置

     /etc/hosts文件若没配置好,会引起一系列不见遇见的问题,有时候会在这些问题上面花费较多的时间.

 

hadoop@PC3GD000516:/usr/local/hadoop$ more /etc/hosts
127.0.0.1	localhost
192.168.215.85  master pc-name0
192.168.215.201 slave1 pc-name1
192.168.215.202 slave2 pc-name2
#127.0.1.1	 pc-name0

要点: 

 

  1. 主从机器的IP要配置好,包括机器别名(如slave1)/机器实体名(如pc-name1)
  2. 同时本机的 127.0.0.1 不要配置机器名,要注释掉
  • hadoop 数据临时目录配置

     

<property>
	<name>hadoop.tmp.dir</name>
	<value>/usr/local/hadoop/tmp</value>
</property>

 

        hadoop配置文件 core-site.xml 配置尽量手动配置这个选项,否则的话都默认存在了里系统的默认临时文件/tmp里。这用于记录dfs namenode的相关节点信息,如一些格式化信息等.如果使用默认临时文件路径/tmp的话,每次重启服务器后,就要重新 dfsadmin namenode -format 一次了,数据也丢失了.

 

0
0

查看评论
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
    个人资料
    • 访问:12747次
    • 积分:514
    • 等级:
    • 排名:千里之外
    • 原创:40篇
    • 转载:1篇
    • 译文:0篇
    • 评论:0条
    文章分类
    文章存档