Hadoop2.8.0 HDFS伪分布式布置

设置配置文件

etc/hadoop/core-site.xml:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

etc/hadoop/hdfs-site.xml:


<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
</property>
<property>
		<name>dfs.namenode.name.dir</name>
		<value>/home/dreamcs/hadoopdata/name</value>
</property>
<property>
		<name>dfs.datanode.data.dir</name>
		<value>/home/dreamcs/hadoopdata/data</value>
</property>
</configuration>

Dfs.replication为复本的数量。这里设置为1。dfs.namenode.name.dir为保存namenode数据的地方。dfs.datanode.data.dir为保存datanode数据的地方。

 

    在初始化时,最好保证这两个目录为空。不然可能会出错。官方给出的例子中,并没有配置这两个字段。但在ubuntu上,会有问题(其它系统未测试)。如果没有配置这两个目录,hadoop会在/tmp目录下,生成这两个目录。如下图:



当系统重启后,ubuntu可能会清除/tmp。导致hadoop数据丢掉。所以,这里指定了这两个目录。

 

设置免密码登录

  $ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

  $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

  $ chmod 0600 ~/.ssh/authorized_keys

测试一下,是否能免密码登录。

ssh localhost

 

格式化NameNode

bin/hdfs namenode -format

 

配置JAVA_HOME

etc/hadoop/hadoop-env.sh文件中添加

export JAVA_HOME=/usr/lib/jvm/jdk...

具体原因参见此文

 

启动NameNodeDataNode

$ sbin/start-dfs.sh

其实会起动三个进程:namenodedatanodesecondarynamenode

 

 

查看NameNodeDataNode

通过浏览器查看NameNode   

http://NameNodeIP机器IP地址:50070/

结果如下:


通过浏览器查看DataNode    

http://NameNodeIP机器IP地址:50070/

 

简单的文件操作

创建文件夹。

$ bin/hdfs dfs -mkdir /user

复制文件到/usr目录中。

$ bin/hdfs dfs -put etc/hadoop   /user

 

停止NameNodeDataNode

$ sbin/stop-dfs.sh



  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值