Hadoop大数据开发基础课后答案

Hadoop大数据开发基础课后答案(仅供参考)

本书为中国工信出版集团的《Hadoop大数据开发基础》

Hadoop集群的搭建与配置

一、选择题

1.HDFS中的文件块默认保存(C)份。
B.2 A.1 C.3 D.不确定
2.启动集群的顺序为(A)
① start-dfs.sh ② start-yarn.sh
③ mr-jobhistory-daemon.sh start historyserver
A.① ② ③ B.② ① ③ C.③ ② ① D.③ ① ②

3.关闭集群的顺序为(B)
① stop-dfs.sh ②stop-yarn.sh ③ m-jobhistory-daemon.sh stop historyserver
A.① ② ③ B.② ① ③ C.③ ② ① D.① ③ ②

4.YARN监控的默认端口是(B)。
A.50070端口 B.8088端口 C.19888端口 D.8080端口

5.默认端口50070的作用是(A)
A.查看HDFS监控 B.查看YARN监控 C.查看日志监控 D.不确定

6.在Linux下安装NTP服务的命令是(A)
A. yum install ntp B. yum remove ntp C. yum update ntp D. yum list

7.搭建 Hadoop集群的步骤是(A)
①克隆虚拟机
②配置 SSH免密码登录③ 格式化
④修改配置文件
⑤配置时间同步服务
A.④①②⑤③ B.③②①⑤④ C.⑤①③②④ D.②⑤④①③

8.在(A)配置文件里可以修改文件块的副本数。
A. hdfs-site.xml B.slaves D. hadoop-env.sh C. core-site.xml
9 yarn-site.xml文件的作用是(C)
A. 配置 MapReduce框架 B.配置 Hadoop 的HDFS系统的命名
C. 配置YARN 框架 D.保存子节点信息
10. 克隆虚拟机之后需要修改(B)文件。
① /etc/udev/rules.d/70-persistent-net.rules
②/etc/sysconfig/network-scriptd/ifcfg-eth0
③ /etc/sysconfig/network
A.①② B.①②③ C.②③ D.①③

Hadoop基础操作

一、选择题

1.下列(A)命令可以显示出HDFS 文件系统中在线的数据节点。
A. hdfs dfsadmin -report -live B. hdfs dfsadmin -report -active
C. hdfs dfsadmin -report-dead D. hdfs dfsadmin -report-decommissioning

2.下列(C)命令可以显示出HDFS目录/user/root/中的内容。
A. hdfs dfs -dir /user/root/ B. hdfs dfs -report /user/root/
C. hdfs dfs -ls /user/root/ D. hdfs dfs -display /user/root/

3.下列( A)命令可以下载HDFS目录/user/root/live.txt。
A. hdfs dfs -get/user/root/live.txt B. hdfs dfs -download /user/root/live.txt
C. hdfs dfs -put /user/root/live.txt D. hdfs dfs -move /user/root/live.txt

4.上传一个大小为500MB的文件 data.txt到以 Hadoop 2.6搭建的集群上。这个文件会占用(B)个HDPS 文件块。
A.3 B. 4 C.5 D.8

5.在 Hadoop官方的示例程序包hadoop-mapreduce-examples-2.6.4.jar中,封装了一些常用的测试模块。可以获得文件中单词长度的中位数的模块是(C)。
A. wordcount B. wordmean C.wordmedian D. wordstandarddeviation

6.向Hadoop集群提交MapReduce任务时,可以使用下列(C)命令。
A.hadoop submit B. hadoop put C. hadoop jar D. mapreduce jar

7.以hadoop jar提交MapReduce任务时,如果命令行中指定的输出目录已经存在,执行的结果将会是(C)。
A. 覆盖原目录 B.自动创建新目录 C.报错并中断任务 D.以上都不是

8.当提交某个 MapReduce 任务后,在任务列表中显示该任务的状态(state)值为"ACCEPTED",这表示(C)
A.正在接受中 B.正在执行中 C.等待执行中D.任务恢复中

MapReduce编程入门

一、选择题。

1.有多种浏览HDPS文件相录的方式,以下(D)是不对的
A.通过HDFS命今 B.通过Web浏览器
C.通过Eclipse中的Project Explorer D.通过SSH客户端工具

2.在词频统计(WordCount)的执行过程中,( A)模块负责进行单词的拆分与映射。
A. Mapper B. Reducer C. Driver D. Main

3.MapReduce程序最后输出的结果通常都是按键值进行排序的,那么排序工作发生在MapReducer执行过程中的(B)阶段。
A. Map B. Shufle C. Reduce D. Combiner

4.在驱动类中,(C)设置输入数据的格式。
A.使用方法 setOutputFormat B.使用方法 setOutputKeyValue
C.使用方法 setInputFormat D.使用方法 setJarByClass

5.以MapReduce统计学员的平均成绩,如果输出结果的格式为"学生姓名 平均成绩",例如"Alice 89.5",那么通过(D)选用输出键值对格式。
A.job.setOutputKeyClass(Text.class;job.setOutputValueClassText.class);
B.job.setOutputKeyClass(ntWritableclass;job.setOutputValueClassText.class);
C.job.setOutpuKeyClass(Text.class;job.setOutputValueClass(LongWritable.class);
D.job.setOutputKeyClass(Text.class);job.setOutputValueClass(DoubleWritable.class);

6.在 MapReduce程序中,Mapper模块中的自定义类MyMapper 继承自(A)父类。
A. Mapper B. Reducer C. Combiner D. Partitioner

7.在 MapReduce程序中,必须包含的模块有(C)。
A. Mapper、Combiner、Reducer B. setup、Mapper、Reducer
C. Mapper、Reducer D. Mapper、Reducer、cleanup

8.在 MapReduce 程序中,Reducer类中包括的函数有(B)。
A. startup、reduce、end B. setup、reduce、cleanup
C. start、run、reduce、end D. startup、run、end

9.有一组数据(W,2,C,2,8,S,W),如果用MapReduce程序对其中的每个元素进行计数,那么在输出的键值对结果中,键的排列顺序应该是(B)。
A.8、2、C、S、W B.2、8、C、S、W
C.C、S、W、8、2 D.2、8、W、C、S

10.在Job类中对输出键值对格式进行设置时,如果 Mapper的输出格式与Reducer的输出格式一样,那么可以省略下列(B)设置。
A.job.setOutputKeyClass()与job.setOutputValueClss()
B.job.setMapOutputKeyClass()与job.setMapOutputValueClass()
C.job.setReduceOutputKeyClass()与 job.setReduceOutputValueClass()
D.以上都不能省略

MapReduce进阶编程

一、选择题

1.下列关于Combiner 的描述,正确的是(D)。
A.在 MapReduce 作业流程中可随意添加 Combiner
B.添加了Combiner意味着 MapReduce程序的运行效率得到了优化
C.Combiner 可以代替 Reducer
D.应谨慎使用Combiner

2.下列(B)情况适合添加 Combiner。
A. MapReduce 程序求平均值 B. MapReduce 程序求和
C. MapReduce程序求中位数 D.MapReduce 程序对数据进行排序

3.下列属于 Hadoop 内置数据类型的是( D)。
A. IntegerWritable B. StringWritable C. ListWritable D. MapWritable

4.关于自定义数据类型,下列说法正确的是(D)。
A.自定义数据类型必须继承Writable 接口
B.自定义MapReduce 的key需要继承Writable接口
C.自定义 MapReduce的value需要继承WritableComparable接口
D.自定义数据类型必须实现 readFields(Datalnput datainput)方法

5.设置 MapReduce参数传递的正确方式是(C)
A.通过变量赋值进行传递
B.通过 get()和 set()方法传递
C.通过 conf.set(“argName”,args[n])传递
D.通过 job.set(“argName”,args[n])传递

6.在 Mapper类的setup 函数里,下列(D)方式可以用来获取参数值。
A.Context.get(“argName”)
B.Configuration.get(“argName”)
C.context.getConfiguration.getInt"argName")
D.context.getConfiguration.get(“argName”)

7.Hadoop序列化的特点有(A)。
A.紧凑、快速、互扩展、互操作 B.紧凑、快速 C. 互扩展 D. 互操作

8.下列说法正确的是(C)。
A.Combiner发生在 Reduce 端
B.MapReduce默认的输入格式是KeyValuelnpuFormat
C.Partitioner 的作用是对 key进行分区
D.自定义值类型需要实现 WritableComparable接口

9.MapReduce默认的输出格式是(B)
A. SequenceFileOutputFormat B. TextOutputFormat
C. NullOutputFormat D. MapFileOutputFormat

10.Hadoop JavaAPI创建文件夹的方法是(C)。
A. listStatus(Path f)B. delete(Path f)
C. mkdirs(Path f) D. open(Path f)

如果有什么内容有错的地方欢迎大家进行指正!!!
  • 14
    点赞
  • 54
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop大数据开发课程设计是为了帮助学生学习和掌握大数据处理和分析的技能,以满足当前社会对大数据专业人才的需求。课程设计应注重理论和实践相结合,通过理论课程的学习和实际案例的分析,让学生掌握Hadoop生态系统相关的技术和工具。 在课程设计中,应包括Hadoop的基础知识和原理,包括MapReduce编程模型、HDFS分布式文件系统、Yarn资源管理器等核心概念和技术。同时,还应该涵盖大数据的存储和处理技术,包括Hive、Pig等数据处理工具,以及HBase、Cassandra等NoSQL数据库的使用方法。此外,还可以包括实时数据处理技术,如Kafka、Storm等流处理工具的介绍和应用。 在实践环节中,可以通过实际案例和项目来巩固学生的理论知识,让学生亲自搭建Hadoop集群,编写MapReduce程序,进行大规模数据处理和分析。通过这些实际操作,学生能够更加深入地理解Hadoop的工作原理和应用场景,提高实际操作能力。 此外,课程设计还可以结合大数据行业的最新发展趋势,引入一些前沿的技术和工具,如Spark、Flink等,以及深度学习、人工智能等相关内容,让学生对大数据领域有一个更加全面和深入的了解。 总之,Hadoop大数据开发课程设计应该以学生的实际需求为出发点,注重理论和实践相结合,帮助学生掌握大数据处理和分析的核心技术和方法,提升其在大数据领域的实际应用能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值