Hadoop面试题之HDFS
-
- 1.2 HDFS(☆☆☆)
-
- 1.2.1 HDFS 中的 block 默认保存几份?(A)3
- 1.2.2 HDFS 默认 BlockSize 是(C)64MB
- 1.2.3 Client 端上传文件的时候下列哪项正确?(BC)
- 1.2.4 下面哪个程序负责 HDFS 数据存储?(C)DataNode
- 1.2.5 关于 SecondaryNameNode 哪项是正确的?(C)
- 1.2.6 下列哪个程序通常与 NameNode 在一个节点启动?(D)
- 1.2.7 文件大小默认为 64M,改为 128M 有啥影响?
- 1.2.8 HDFS的存储机制(☆☆☆☆☆)过程和读取
- 1.2.9 secondary namenode工作机制(☆☆☆☆☆)(两个阶段,namenode启动,Secondary NameNode工作)
- 1.2.10 NameNode与SecondaryNameNode 的区别与联系?(☆☆☆☆☆)
- 1.2.11 hadoop节点动态上线下线怎么操作?
- 1.2.12 hdfs整体架构介绍
- 1.2.13 namenode内存包含哪些,具体如何分配
- 1.2.14 HAnamenode 是如何工作的? (☆☆☆☆☆)
- 1.2.15 namenode ha高可用源码实现方式
- 1.2.16 hadoop2.x Federation
- 1.2.17 HDFS Federation的原理结构
- 1.2.18 HDFS Federation方案的优势
- 1.2.19 hadoop的块大小,从哪个版本开始是128M
- 1.2.20 写出你常用的hdfs命令
- 1.2.21 hdfs原理,以及各个模块的职责
- 1.2.22 哪个程序同城与nn在一个节点启动?哪个程序和DN在一个节点?如果一个节点脱离了集群应该怎么处理?
1.2 HDFS(☆☆☆)
1.2.1 HDFS 中的 block 默认保存几份?(A)3
A.3 份
B.2 份
C.1 份
D.不确定
1.2.2 HDFS 默认 BlockSize 是(C)64MB
A.32MB
B.64MB(2.7.2版本,本地模式)
C.128MB(2.7.2版本,分布式模式)
1.2.3 Client 端上传文件的时候下列哪项正确?(BC)
A.数据经过NameNode传递DataNode
B.Client端将文件切分为Block,依次上传
C.Client只上传数据到一台DataNode,然后由NameNode负责Block复制工作
1.2.4 下面哪个程序负责 HDFS 数据存储?(C)DataNode
A.NameNode
B.JobTracker
C.DataNode
D.SecondaryNameNode
E.tasktracker
1.2.5 关于 SecondaryNameNode 哪项是正确的?(C)
A.它是NameNode的热备
B.它对内存没有要求
C.他的目的使帮助NameNode合并编辑日志,减少NameNode 启动时间
D. SecondaryNameNode应与NameNode 部署到一个节点
1.2.6 下列哪个程序通常与 NameNode 在一个节点启动?(D)
A.SecondaryNameNode
B.DataNode
C.TaskTracker
D.JobTracker
hadoop的集群是基于master/slave模式,namenode和jobtracker属于master,datanode和tasktracker属于slave,master只有一个,而slave有多个。
SecondaryNameNode内存需求和NameNode在一个数量级上,所以通常secondary NameNode(运行在单独的物理机器上)和 NameNode 运行在不同的机器上。
JobTracker对应于NameNode,TaskTracker对应于DataNode。
DataNode和NameNode是针对数据存放来而言的。JobTracker和TaskTracker是对于MapReduce执行而言的。
mapreduce中几个主要概念,mapreduce 整体上可以分为这么几条执行线索:
jobclient,JobTracker与TaskTracker。
1)JobClient会在用户端通过JobClient类将已经配置参数打包成jar文件的应用存储到hdfs,并把路径提交到Jobtracker,然后由JobTracker创建每一个Task(即 MapTask 和 ReduceTask)并将它们分发到各个TaskTracker服务中去执行。
2)JobTracker是一master服务,软件启动之后JobTracker接收Job,负责调度Job的每一个子任务。task运行于TaskTracker上,并监控它们,如果发现有失败的task就重新运行它。一般情况应该把JobTracker 部署在单独的机器上。
3)TaskTracker是运行在多个节点上的slaver服务。TaskTracker主动与JobTracker通信,接收作业,并负责直接执行每一个任务。TaskTracker 都需要运行在HDFS的DataNode上。
1.2.7 文件大小默认为 64M,改为 128M 有啥影响?
增加文件块大小,需要增加磁盘的传输速率。
1.2.8 HDFS的存储机制(☆☆☆☆☆)过程和读取
HDFS存储机制,包括HDFS的写入过程和读取过程两个部分
1)客户端向namenode请求上传文件,namenode检查目标文件是否已存在,父目录是否存在。
2)namenode返回是否可以上传。
3)客户端请求第一个 block上传到哪几个datanode服务器上。
4)namenode返回3个datanode节点,分别为dn1、dn2、dn3。