hadoop面试题整理(六)

本文整理了关于Hadoop的一系列面试题目,涵盖单选、多选和判断题,包括HDFS的数据存储、NameNode与SecondaryNameNode的角色、Hadoop作者、Block大小、集群管理工具、数据读写流程等内容,帮助理解Hadoop核心概念与工作机制。
摘要由CSDN通过智能技术生成
一. 单选题
1. 下面哪个程序负责 HDFS 数据存储。
a)NameNode  b)Jobtracker  c)Datanode d)secondaryNameNode e)tasktracker
答案:C datanode

2. HDfS 中的 block 默认保存几份?
a)3 份 b)2 份 c)1 份d)不确定
答案:A 默认3份
  
3. 下列哪个程序通常与 NameNode在一个节点启动?
a)SecondaryNameNode b)DataNode c)TaskTracker d)Jobtracker
答案:D
分析:
hadoop的集群是基于master/slave模式,namenode和jobtracker属于master,datanode和tasktracker属于slave,master只有一个,而slave有多个
SecondaryNameNode内存需求和NameNode在一个数量级上,所以通常secondary NameNode(运行在单独的物理机器上)和NameNode运行在不同的机器上。
JobTracker对应于NameNode,TaskTracker对应于DataNode
DataNode和NameNode是针对HDFS数据存放来而言的,JobTracker和TaskTracker是对于MapReduce执行而言的

mapreduce中几个主要概念,mapreduce整体上可以分为这么几条执行线索:jobclient,JobTracker与TaskTracker。
(1)、JobClient会在用户端通过JobClient类将应用已经配置参数打包成jar文件存储到hdfs,
并把路径提交到Jobtracker,然后由JobTracker创建每一个Task(即MapTask和ReduceTask)并将它们分发到各个TaskTracker服务中去执行
(2)、JobTracker是一个master服务,软件启动之后JobTracker接收Job,负责调度Job的每一个子任务task运行于TaskTracker上,
并监控它们,如果发现有失败的task就重新运行它。一般应该把JobTracker部署在单独的机器上。
(3)、TaskTracker是运行在多个节点上的slaver服务。TaskTracker主动与JobTracker通信,接收作业,并负责直接执行每一个任务。
TaskTracker都需要运行在HDFS的DataNode上

4. Hadoop作者
a)Martin Fowler b)Kent Beck c)Doug cutting +
答案:C Doug cutting 

5. HDFS默认Block Size
  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值