Hadoop HDFS

本文介绍了Hadoop HDFS的基本概念、配置和使用。主要内容包括HDFS的组件(NameNode, DataNode, Client)、配置文件解析、集群环境的搭建与管理、文件系统的访问方式以及API访问。特别强调了NameNode的冗余机制和文件块的重要性。" 29599521,3380837,C语言中的MessageBox函数详解,"['C语言编程', 'Windows API', '用户交互']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、HDFS相关概念

2、HDFS配置

3、HDFS使用

4、HDFShadoop 应用、HBase

本文希望通过最简洁的方式让您快了了解Hadoop HDFS:

HDFS是Hadoop中的文件系统,既然是文件系统那其目的就是为了提供数据存储服务,它应该提供一般文件系统最常用的功能。Hadoop系统非常庞大,本文将主要介绍HDFS,


2、HDFS文件系统配置

作为分布式文件系统只有集群下的HDFS才能真正的发挥作用,下面将描述如何搭建HDFS集群环境:

HDFS系统的三个组成部分:

NameNode:master(管理者)管理集群下的DataNode节点,namenode管理整个文件系统的命名空间,记录个块所在的数据节点新,维护整个文件系统中的文件和目录树,这些信息已两个文件的形式保持在磁盘上,分别为

命名空间镜像文件:/tmp/hadoop-${user}/dfs/name/current/fsimage (默认文件位置)

编辑日志:/tmp/hadoop-${user}/dfs/name/current/edits(默认文件位置)

DataNode:slave()文件系统工作节点。根据需要存储或检索数据,定期向namenode发送块的列表信息。

Client:客户端用户访问和使用HDFS文件系统的工具

2.1 单机HDFS环境(伪分布式)

 相关配置文件说明(0.20version):rpm安装配置文件在/etc/hadoop下,tar解压在conf文件夹下;

hadoop-env.xml:hadoop综合环境配置,包括JAVA_HOM和一些启动参数;

core-site.xml:核心配置文件,fd.default.name等参数配置;

hdfs-site.xml:hdfs-相关配置。

2.1.1 环境检查和配置

1、配置JAVA环境,确定JAVA_HOME设置成功,检查hadoop-env.xml中JAVA_HOME参数是否与机器的实际JAVA_HOME一致;

2、向core-site.xml中添加如下代码:

 <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
  </property>
  向hdfs-site.xml中添加如下代码:指定文件系统中块的副本数;
 <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
3、ssh配置:hadoop启动默认要ssh认证说以这里要配置能够通过ssh访问本机
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa 
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

配置完成后通过ssh localhost 登录本机,如果未要求输入密码登录成功则ssh配置完成。

2.1.2 启动验证HDFS系统

1、格式化namenode:格式化后会在/tmp/hadoop-${user}/dfs/name找到namenode相关的文件;

$ hadoop namenode -format

2、启动hdfs:默认启动日志可以/val/log/hadoop/${user}目录下

$ start-dfs.sh

3、验证是否启动成功:启动会通过netstat  -nap | grep java可以查看到相关的进程。

 可以通过浏览器访问http://namenode-name:50070/查看问下系统信息。

4、使用stop-dfs.sh关闭HDFS

2.2 集群环境(分布式)

2.2.1 环境检查和配置

本实验采用1个namenode和2个datanode的架构进行测试

1、配置允许namenode和datanode之间的无密码访问

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa 
通过ssh-keygen 工具产生用于无密码认证的密匙对,将公钥id_dsa.pub内容追加到被登录服务器的~/.ssh/authorized_keys(ssh默认认证文件)的文件中,实现无密码登录,更多关于ssh可以在网上查看更多详细资料,此节要实现的是namenode可以无密码登陆datanote,datanode可以无密码登录namenode,datanode之间无需配置。

2、同步集群时间

ntpdate dateServer :同步集群内所有服务器的时间(注意hwclock -w)

3、namenode配置


a、配置如2中配置基本一致,hdfs-site.xml中的配置可以却掉,使用hdfs默认3个块副本的配置,core-site.xml中fs.default.name要使用真实的主机名或IP这个很重要。
b、在conf/slaves(/etc/hadoop/slaves)中添加datanode主机名或IP,以行分割。

4、datanode配置

在core-site.xml中指定HDFS的位置,同namenode的core-site.xml配置相同。

2.2.2、启动方式和停止方式

在namenode节点使用start-dfs.sh启动HDFS集群,

可以在namenode和datanode上使用netstat -nap | grep java 查看相关进程是否启动,可以从/val/log/hadoop/${user}中查看启动信息

如果新添加datenode可以配置好datanote后在datanode上使用hadoop datanode命令启动datanode节点,记得在namenode的slaves配置文件中加入此datanode。
ADDT:实际环境可以考虑加入冗余的DNS进行解析。
在浏览器中通过http://namenode:50070访问集群接口。

3、访问文件系统

hadoop提供了相应的工具来访问文件系统,最基本的就是shell工具

shell工具:

hadoop fs -ls /:查看HDFS文件系统(此命令将默认显示core-site.xml中fs.default.name指定的文件系统)

hadoop fsck  / -files -blocks:

hadoop dfsadmin -report:查看问下系统状态信息。

4、通过API访问文件系统(本例源自Hadoop in Action第3章,示例为主要流程未考虑异常问题

import java.io.IOException;
import java.util.Scanner;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class MergeFile {
	public static void main(String[]args) throws IOException{
		//便于在Eclipse中调试
		Scanner scan = new Scanner(System.in);
		System.out.println("input.dir output.file");
		args = scan.nextLine().split(" ");
		
		//配置文件
		Configuration conf = new Configuration();
		FileSystem local = FileSystem.getLocal(conf);
		conf.set("fs.default.name", "hdfs://localhost");
		FileSystem hdfs = FileSystem.get(conf); 
		
		//活动输入目录和输出文件
		Path inputDir = new Path(args[0]);
		Path hdfsFile = new Path(args[1]);

		//执行文件合并拷贝
		FileStatus[] inputFiles  = local.listStatus(inputDir);
		FSDataInputStream rs = null;
		FSDataOutputStream os = hdfs.create(hdfsFile);
		for(FileStatus fss :inputFiles){
			System.out.println(fss.getPath().getName());
			int readSize = -1;
			byte[] buffer = new byte[1024];
			rs = local.open(fss.getPath());
			while((readSize=rs.read(buffer))>0){
				os.write(buffer,0,readSize);
			}
			rs.close();
		}
		os.close();
		
	}
}

5、hadoop文件系统

对于hadoop文件系统这里不再描述,可以查看《hadoop权威指南》或官方文档进行详细了解。很重要的原因是以笔者现在的水平并不认为能提供比这些更优秀的内容,、没必要重复相同的内容。以后会随着了解和经验的积累补充一下经验性的东西。

重要概念:

文件块:默认64M(v0.20),之所以大是尽量减少寻址时间。

namenode的冗余机制:1、在多个元数据上保存元数据的持久状态(例同时写入本地和nfs);2、运行辅助的namenode从编辑日志中合并命名空间镜像,辅助namenode保存的状态总是滞后主节点(更多了解文件系统镜像和编辑日志)。



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值