部分大数据平台运维题及答案

大数据平台运维
HDFS题:
1.在HDFS文件系统的根目录下创建递归目录“1daoyun/file”,将附件中的BigDataSkills.txt文件,上传到1daoyun/file目录中,使用相关命令查看文件系统中1daoyun/file目录的文件列表信息,将操作命令和返回结果以文本形式提交到答题框。

[root@master ~]# hadoop fs -mkdir -p /1daoyun/file
[root@master ~]# hadoop fs -put BigDataSkills.txt /1daoyun/file
[root@master ~]# hadoop fs -ls /1daoyun/file

2.在HDFS文件系统的根目录下创建递归目录“1daoyun/file”,将附件中的BigDataSkills.txt文件,上传到1daoyun/file目录中,并使用HDFS文件系统检查工具检查文件是否受损,将操作命令和返回结果以文本形式提交到答题框。

[root@master ~]# hadoop fs -mkdir -p /1daoyun/file
[root@master ~]# hadoop fs -put BigDataSkills.txt/1daoyun/file
[root@master ~]# hadoop fsck /1daoyun/file/BigDataSkills.txt

3.在HDFS文件系统的根目录下创建递归目录“1daoyun/file”,将附件中的BigDataSkills.txt文件,上传到1daoyun/file目录中,上传过程指定BigDataSkills.txt文件在HDFS文件系统中的复制因子为2,并使用fsck工具检查存储块的副本数,将操作命令和返回结果以文本形式提交到答题框。

[root@master ~]# hadoop fs -mkdir -p /1daoyun/file
[root@master ~]# hadoop fs -D dfs.replication=2 -put BigDataSkills.txt /1daoyun/file
[root@master ~]# hadoop fsck /1daoyun/file/BigDataSkills.txt

4.HDFS文件系统的根目录下存在一个/apps的文件目录,要求开启该目录的可创建快照功能,并为该目录文件创建快照,快照名称为apps_1daoyun,使用相关命令查看该快照文件的列表信息,将操作命令和返回结果以文本形式提交到答题框。

[root@master ~]# hadoop dfsadmin -allowSnapshot /apps
[root@master ~]# hadoop fs -createSnapshot /apps apps_1daoyun
[root@master ~]# hadoop fs -ls /apps/.snapshot

5.HDFS文件系统的/user/root/small-file目录中存在一些小文件,要求使用Hadoop Arachive工具将这些小文件归档成为一个文件,文件名为xiandian-data.har。归档完成后,查看xiandian-data.har的列表信息,输出结果为。

[root@master ~]# hadoop archive -archiveName xiandian-data.har -p /user/root/small-file /user/root/
[root@master ~]# hadoop fs -ls /user/root/xiandian-data.har

6.当Hadoop集群启动的时候,会首先进入到安全模式的状态,该模式默认30秒后退出。当系统处于安全模式时,只能对HDFS文件系统进行读取,无法进行写入修改删除等的操作。现假设需要对Hadoop集群进行维护,需要使集群进入安全模式的状态,并检查其状态。将集群进入安全模式和检查安全模式状态的操作命令以文本形式提交到答题框中。

[root@master ~]# hdfs dfsadmin -safemode enter
[root@master ~]# hdfs dfsadmin -safemode get

7.为了防止操作人员误删文件,HDFS文件系统提供了回收站的功能,但过多的垃圾文件会占用大量的存储空间。要求在先电大数据平台的WEB界面将HDFS文件系统回收站中的文件彻底删除的时间间隔为7天,以文本形式提交修改的文件名称、参数信息和参数值到答题框中。

高级core-site
fs.trash.interval
10080

8.为了防止操作人员误删文件,HDFS文件系统提供了回收站的功能,但过多的垃圾文件会占用大量的存储空间。要求在Linux Shell中使用“vi”命令修改相应的配置文件以及参数信息,关闭回收站功能。完成后,重启相应的服务。以文本形式提交以上操作命令和修改的参数信息到答题框中。

[root@master ]# vi /etc/hadoop/2.4.3.0-227/0/core-site.xml

fs.trash.interval 0

[root@master ~]# su - hdfs
[hdfs@master ~] / u s r / h d p / c u r r e n t / h a d o o p − c l i e n t / s b i n / h a d o o p − d a e m o n . s h − − c o n f i g / u s r / h d p / c u r r e n t / h a d o o p − c l i e n t / c o n f s t o p n a m e n o d e [ h d f s @ m a s t e r   ] /usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config /usr/hdp/current/hadoop-client/confstop namenode [hdfs@master ~] /usr/hdp/current/hadoopclient/sbin/hadoopdaemon.shconfig/usr/hdp/current/hadoopclient/confstopnamenode[hdfs@master ]/usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config /usr/hdp/current/hadoop-client/confstart namenode
[hdfs@master ~] / u s r / h d p / c u r r e n t / h a d o o p − c l i e n t / s b i n / h a d o o p − d a e m o n . s h − − c

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值