爬虫 pandas Linux Flume Pig填空题

目录

试卷:Python网络数据处理

答案

试卷:Pandas基础操作

答案

试卷:Linux基础指令

答案

试卷:Apache Flume基础指令

答案

试卷:Apache Pig基础指令

答案:

Hadoop题

答案


试卷:Python网络数据处理


一、填空题

  1. requests库用于发送HTTP请求和接收_____。

  2. response.status_code可以获取HTTP响应的_____。

  3. 使用requests.get(url)发送GET请求时,响应内容可以通过_____属性获取。

  4. JSON(JavaScript Object Notation)是一种_____数据交换格式。

  5. JSON对象由____组成。

  6. 使用response.json()方法可以将响应内容解析为_____格式。

  7. requests.post(url, json=data)中,json=data用于发送_____数据。

  8. HTML解析常用的库是_____。

  9. BeautifulSoup的解析器通常使用_____。

  10. soup.find_all('a')用于找到HTML中所有_____标签。

  11. response.cookies用于获取_____。

  12. requests.get(url, headers=headers)中,headers=headers用于发送_____。

  13. 在POST请求中,传统表单数据通过_____参数发送。

  14. 通过response.url可以获取_____。

  15. requests.exceptions.Timeoutrequests库中的_____异常。

  16. 使用requests.get(url, params=params)可以发送GET请求并附带_____。

  17. response.history包含了_____的响应历史。

  18. 使用response.text可以获得HTTP响应的_____。

  19. response.content返回的是HTTP响应的_____形式。

  20. soup.find('div', class_='content')可以找到HTML中class为_____的<div>标签。

  21. response.headers返回的是HTTP响应的_____。

  22. 在响应的JSON数据中,null表示_____。

  23. response.encoding用于获取HTTP响应的_____。

  24. requests.get(url, timeout=5)中,timeout=5表示设置超时时间为_____秒。

  25. response.raise_for_status()用于在请求发生_____时抛出异常。

  26. 使用requests.get(url, cookies=cookies)可以发送GET请求并附带_____。

  27. 使用response.ok可以判断HTTP响应是否_____。

  28. 在HTML解析中,soup.title用于获取HTML文档的_____标签。

  29. 使用requests.put(url, data=data)可以发送_____请求。

  30. response.elapsed.total_seconds()返回的是请求的_____时间(秒)。

答案

一、填空题

  1. requests库用于发送HTTP请求和接收HTTP响应

  2. response.status_code可以获取HTTP响应的状态码

  3. 使用requests.get(url)发送GET请求时,响应内容可以通过response.text属性获取。

  4. JSON(JavaScript Object Notation)是一种数据交换格式。

  5. JSON对象由组成。

  6. 使用response.json()方法可以将响应内容解析为JSON格式。

  7. requests.post(url, json=data)中,json=data用于发送JSON格式数据。

  8. HTML解析常用的库是BeautifulSoup

  9. BeautifulSoup的解析器通常使用html.parser

  10. soup.find_all('a')用于找到HTML中所有<a>标签。

  11. response.cookies用于获取响应中的Cookies

  12. requests.get(url, headers=headers)中,headers=headers用于发送自定义的请求头

  13. 在POST请求中,传统表单数据通过data参数发送。

  14. 通过response.url可以获取最终的URL

  15. requests.exceptions.Timeoutrequests库中的超时异常。

  16. 使用requests.get(url, params=params)可以发送GET请求并附带查询参数

  17. response.history包含了重定向的响应历史。

  18. 使用response.text可以获得HTTP响应的文本内容

  19. response.content返回的是HTTP响应的字节形式

  20. soup.find('div', class_='content')可以找到HTML中class为'content'<div>标签。

  21. response.headers返回的是HTTP响应的头部信息

  22. 在响应的JSON数据中,null表示空值

  23. response.encoding用于获取HTTP响应的编码

  24. requests.get(url, timeout=5)中,timeout=5表示设置超时时间为5秒。

  25. response.raise_for_status()用于在请求发生错误时抛出异常。

  26. 使用requests.get(url, cookies=cookies)可以发送GET请求并附带Cookies

  27. 使用response.ok可以判断HTTP响应是否成功

  28. 在HTML解析中,soup.title用于获取HTML文档的<title>标签。

  29. 使用requests.put(url, data=data)可以发送PUT请求。

  30. response.elapsed.total_seconds()返回的是请求的响应时间(秒)。

试卷:Pandas基础操作


一、填空题

  1. 导入Pandas库的标准语句是 import pandas as __

  2. 使用pd.Series(data)创建一个Pandas的_____对象。

  3. 从CSV文件中读取数据可以使用pd.read_csv('file.csv'),返回的数据结构是_____。

  4. 查看DataFrame的前几行数据可以使用_____方法。

  5. 查看DataFrame的列名可以使用_____属性。

  6. 获取DataFrame的行数和列数可以使用_____属性。

  7. 在DataFrame中选取一列数据可以使用df['column_name']df.column_name_____方法。

  8. 在DataFrame中选取多列数据可以使用df[['col1', 'col2']]_____语法。

  9. 使用df.head(10)可以查看DataFrame的_____行数据。

  10. 使用df.tail(5)可以查看DataFrame的_____行数据。

  11. 创建一个新的列可以使用df['new_column'] = values_____方法。

  12. 使用df.info()可以查看DataFrame的_____信息。

  13. 使用df.describe()可以获取DataFrame的_____统计信息。

  14. 使用df.dropna()可以删除包含_____值的行。

  15. 使用df.fillna(value)可以将DataFrame中的_____值替换为指定值。

  16. 使用df.groupby('column').mean()可以按_____分组计算均值。

  17. 使用df['new_col'] = df.apply(lambda row: func(row['col']), axis=1)可以在DataFrame中应用_____函数。

  18. 使用pd.concat([df1, df2], axis=0)可以沿着_____方向连接两个DataFrame。

  19. 使用pd.merge(df1, df2, on='key')可以根据_____列合并两个DataFrame。

  20. 使用df.pivot_table(values='value', index='index_col', columns='col')可以创建一个_____表格。

  21. 使用df.sort_values('column', ascending=False)可以按_____排序DataFrame。

  22. 使用df.drop_duplicates()可以删除DataFrame中的_____行。

  23. 使用df.set_index('column')可以将DataFrame的_____设置为指定列。

  24. 使用df.reset_index()可以重置DataFrame的_____索引。

  25. 使用df['column'].value_counts()可以统计某一列中各个值的_____。

  26. 使用df['new_col'] = pd.to_datetime(df['date_col'])可以将_____转换为日期时间格式。

  27. 使用df.to_csv('file.csv', index=False)可以将DataFrame保存为_____文件。

  28. 使用df.plot()可以绘制_____图形。

  29. 使用df.corr()可以计算DataFrame中各列之间的_____系数。

  30. 使用df.isnull().sum()可以统计DataFrame中每列的_____值数量。

答案

  1. 导入Pandas库的标准语句是 import pandas as pd

  2. 使用pd.Series(data)创建一个Pandas的 Series 对象。

  3. 从CSV文件中读取数据可以使用pd.read_csv('file.csv'),返回的数据结构是 DataFrame

  4. 查看DataFrame的前几行数据可以使用 head() 方法。

  5. 查看DataFrame的列名可以使用 columns 属性。

  6. 获取DataFrame的行数和列数可以使用 shape 属性。

  7. 在DataFrame中选取一列数据可以使用df['column_name']df.column_name索引 方法。

  8. 在DataFrame中选取多列数据可以使用df[['col1', 'col2']]列表 语法。

  9. 使用df.head(10)可以查看DataFrame的 10 行数据。

  10. 使用df.tail(5)可以查看DataFrame的 5 行数据。

  11. 创建一个新的列可以使用df['new_column'] = values赋值 方法。

  12. 使用df.info()可以查看DataFrame的 信息

  13. 使用df.describe()可以获取DataFrame的 描述性 统计信息。

  14. 使用df.dropna()可以删除包含 缺失值 的行。

  15. 使用df.fillna(value)可以将DataFrame中的 缺失值 替换为指定值。

  16. 使用df.groupby('column').mean()可以按 分组 计算均值。

  17. 使用df['new_col'] = df.apply(lambda row: func(row['col']), axis=1)可以在DataFrame中应用 自定义函数。

  18. 使用pd.concat([df1, df2], axis=0)可以沿着 方向连接两个DataFrame。

  19. 使用pd.merge(df1, df2, on='key')可以根据 列合并两个DataFrame。

  20. 使用df.pivot_table(values='value', index='index_col', columns='col')可以创建一个 透视 表格。

  21. 使用df.sort_values('column', ascending=False)可以按 降序 排序DataFrame。

  22. 使用df.drop_duplicates()可以删除DataFrame中的 重复 行。

  23. 使用df.set_index('column')可以将DataFrame的 索引 设置为指定列。

  24. 使用df.reset_index()可以重置DataFrame的 索引

  25. 使用df['column'].value_counts()可以统计某一列中各个值的 出现 次数。

  26. 使用df['new_col'] = pd.to_datetime(df['date_col'])可以将 日期 列转换为日期时间格式。

  27. 使用df.to_csv('file.csv', index=False)可以将DataFrame保存为 CSV 文件。

  28. 使用df.plot()可以绘制 折线 图形。

  29. 使用df.corr()可以计算DataFrame中各列之间的 相关 系数。

  30. 使用df.isnull().sum()可以统计DataFrame中每列的 缺失 值数量。

试卷:Linux基础指令


一、填空题

  1. 查看当前所在目录的命令是 _________

  2. 显示当前用户的用户名的命令是 _________

  3. 创建一个名为test.txt的空文件的命令是 _________

  4. 切换到根目录的命令是 _________

  5. 切换到用户user1的命令是 _________

  6. 查看文件或目录的详细信息的命令是 _________

  7. 列出当前目录下的所有文件和子目录的命令是 _________

  8. 创建一个名为new_dir的新目录的命令是 _________

  9. 删除名为file1.txt的文件的命令是 _________

  10. 删除名为old_dir的空目录的命令是 _________

  11. 复制文件source.txt到目录dest的命令是 _________

  12. file1.txt重命名为file2.txt的命令是 _________

  13. 查看文件内容的命令是 _________

  14. file1.txt的内容输出到屏幕的命令是 _________

  15. 在终端中连续按两次Tab键可以进行_____。

  16. file1.txt的内容追加到file2.txt的命令是 _________

  17. source_dir目录及其内容压缩成source_dir.tar.gz的命令是 _________

  18. 解压名为archive.tar.gz的压缩文件的命令是 _________

  19. 在Linux中,*通配符代表_____。

  20. 显示系统当前时间的命令是 _________

  21. 列出当前所有正在运行的进程的命令是 _________

  22. 结束进程号为1234的进程的命令是 _________

  23. 在后台运行命令command的命令是 _________

  24. 查看系统中使用的磁盘空间的命令是 _________

  25. 显示当前用户使用的磁盘配额的命令是 _________

  26. file1.txt从本地上传到远程主机的命令是 _________

  27. 从远程主机下载名为file1.txt的文件到本地的命令是 _________

  28. 在Linux中,>符号用于_____。

  29. 在Linux中,|符号用于_____。

  30. 在Linux中,sudo命令用于以_____权限执行命令。

答案

一、填空题

  1. 查看当前所在目录的命令是 pwd

  2. 显示当前用户的用户名的命令是 whoami

  3. 创建一个名为test.txt的空文件的命令是 touch test.txt

  4. 切换到根目录的命令是 cd /

  5. 切换到用户user1的命令是 su user1sudo -u user1 -i

  6. 查看文件或目录的详细信息的命令是 ls -lls -lh

  7. 列出当前目录下的所有文件和子目录的命令是 ls

  8. 创建一个名为new_dir的新目录的命令是 mkdir new_dir

  9. 删除名为file1.txt的文件的命令是 rm file1.txt

  10. 删除名为old_dir的空目录的命令是 rmdir old_dir

  11. 复制文件source.txt到目录dest的命令是 cp source.txt dest/

  12. file1.txt重命名为file2.txt的命令是 mv file1.txt file2.txt

  13. 查看文件内容的命令是 cat filenameless filename

  14. file1.txt的内容输出到屏幕的命令是 cat file1.txt

  15. 在终端中连续按两次Tab键可以进行 文件名自动补全

  16. file1.txt的内容追加到file2.txt的命令是 cat file1.txt >> file2.txt

  17. source_dir目录及其内容压缩成source_dir.tar.gz的命令是 tar -czvf source_dir.tar.gz source_dir/

  18. 解压名为archive.tar.gz的压缩文件的命令是 tar -xzvf archive.tar.gz

  19. 在Linux中,*通配符代表 匹配任意字符

  20. 显示系统当前时间的命令是 date

  21. 列出当前所有正在运行的进程的命令是 ps auxtop

  22. 结束进程号为1234的进程的命令是 kill 1234kill -9 1234

  23. 在后台运行命令command的命令是 command &

  24. 查看系统中使用的磁盘空间的命令是 df -h

  25. 显示当前用户使用的磁盘配额的命令是 quota -v

  26. file1.txt从本地上传到远程主机的命令是 scp file1.txt user@remote_host:/path/to/destination/

  27. 从远程主机下载名为file1.txt的文件到本地的命令是 scp user@remote_host:/path/to/file1.txt /local/path/

  28. 在Linux中,>符号用于 重定向输出到文件

  29. 在Linux中,|符号用于 管道,将一个命令的输出作为另一个命令的输入

  30. 在Linux中,sudo命令用于以 超级用户 权限执行命令。

试卷:Apache Flume基础指令


一、填空题

  1. 启动Flume代理服务的命令是 flume-ng __

  2. 指定Flume配置文件启动代理的参数是 -c __

  3. 使用哪个参数指定Flume配置文件的路径? -f __

  4. 在Flume配置文件中,用来定义source的关键字是 __

  5. 在Flume配置文件中,用来定义channel的关键字是 __

  6. 在Flume配置文件中,用来定义sink的关键字是 __

  7. 在Flume中,avro是一种常见的 __类型。

  8. Flume中用来将数据从source传输到sink的组件是 __。

  9. Flume中用来存储数据的缓冲区是 __。

  10. 指定Flume agent名称的参数是 -n __

  11. 使用Flume收集的数据一般存储在 __中。

  12. 在Flume中,将数据从一个source传输到多个sink的组件是 __。

  13. Flume的日志输出级别可以通过参数 -D__=进行设置。

  14. 在Flume配置文件中,指定source类型的参数是 type = __

  15. Flume中用来管理数据流的组件是 __。

  16. Flume中用来确保数据不会丢失的channel类型是 __。

  17. 使用Flume将日志数据传输到HDFS时,sink类型是 __。

  18. Flume中用来连接source和sink的关键字是 __。

  19. 在Flume配置文件中,可以使用agent.sources.sourceName.channels = channelName来连接 __ 和 __。

  20. Flume中用来启动多个agent的工具是 __。

  21. 在Flume配置文件中,指定channel类型的参数是 type = __

  22. Flume中用来监控和管理agent的工具是 __。

  23. 在Flume中,使用哪个参数指定自定义的Flume插件路径? -cp __

  24. Flume中用来设置source的绑定端口的参数是 port = __

  25. Flume中用来设置sink的目标地址的参数是 hostname = __

  26. Flume中用来设置sink的目标端口的参数是 port = __

  27. Flume中用来设置sink的HDFS写入路径的参数是 hdfs.path = __

  28. Flume中用来设置sink的batch大小的参数是 batchSize = __

  29. Flume中用来设置channel的容量大小的参数是 capacity = __

  30. Flume中用来设置channel的事务容量大小的参数是 transactionCapacity = __

答案

一、填空题

  1. 启动Flume代理服务的命令是 flume-ng agent

  2. 指定Flume配置文件启动代理的参数是 -c

  3. 使用哪个参数指定Flume配置文件的路径? -f

  4. 在Flume配置文件中,用来定义source的关键字是 source

  5. 在Flume配置文件中,用来定义channel的关键字是 channel

  6. 在Flume配置文件中,用来定义sink的关键字是 sink

  7. 在Flume中,avro是一种常见的 source 类型。

  8. Flume中用来将数据从source传输到sink的组件是 channel。

  9. Flume中用来存储数据的缓冲区是 channel

  10. 指定Flume agent名称的参数是 -n

  11. 使用Flume收集的数据一般存储在 HDFS 中。

  12. 在Flume中,将数据从一个source传输到多个sink的组件是 interceptor。

  13. Flume的日志输出级别可以通过参数 -Dflume.root.logger 进行设置。

  14. 在Flume配置文件中,指定source类型的参数是 type =

  15. Flume中用来管理数据流的组件是 agent

  16. Flume中用来确保数据不会丢失的channel类型是 file

  17. 使用Flume将日志数据传输到HDFS时,sink类型是 hdfs

  18. Flume中用来连接source和sink的关键字是 agent.sources.sourceName.channels = channelName

  19. 在Flume配置文件中,可以使用agent.sources.sourceName.channels = channelName来连接 sourcechannel

  20. Flume中用来启动多个agent的工具是 flume-ng multi。

  21. 在Flume配置文件中,指定channel类型的参数是 type =

  22. Flume中用来监控和管理agent的工具是 Flume NG Manager

  23. 在Flume中,使用哪个参数指定自定义的Flume插件路径? -cp

  24. Flume中用来设置source的绑定端口的参数是 port =

  25. Flume中用来设置sink的目标地址的参数是 hostname =

  26. Flume中用来设置sink的目标端口的参数是 port =

  27. Flume中用来设置sink的HDFS写入路径的参数是 hdfs.path =

  28. Flume中用来设置sink的batch大小的参数是 batchSize =

  29. Flume中用来设置channel的容量大小的参数是 capacity =

  30. Flume中用来设置channel的事务容量大小的参数是 transactionCapacity =

试卷:Apache Pig基础指令


一、填空题

  1. 使用Pig Latin语言加载数据的命令是 _____。

  2. 在Pig Latin中,用来创建关系型数据的命令是 _____

  3. 在Pig Latin中,用来过滤数据的命令是 _____

  4. 在Pig Latin中,用来选择特定列的命令是 _____

  5. 在Pig Latin中,用来对数据分组的命令是 _____

  6. 在Pig Latin中,用来对数据排序的命令是 ` _____

  7. 在Pig Latin中,用来计算数据统计信息的命令是 _____

  8. 在Pig Latin中,用来将数据存储到文件系统中的命令是 _____

  9. 在Pig Latin中,用来清除已定义关系的命令是 _____

  10. 在Pig Latin中,用来连接两个或多个关系的命令是 _____

  11. 在Pig Latin中,用来计算关系的最大值的命令是 _____

  12. 在Pig Latin中,用来计算关系的最小值的命令是 _____

  13. 在Pig Latin中,用来计算关系的唯一值的命令是 _____

  14. 在Pig Latin中,用来将字符串转换为小写的函数是 _____

  15. 在Pig Latin中,用来将字符串转换为大写的函数是 _____

  16. 在Pig Latin中,用来截取字符串的函数是 _____

  17. 在Pig Latin中,用来连接字符串的函数是 _____

  18. 在Pig Latin中,用来判断字符串是否匹配某种模式的函数是 _____

  19. 在Pig Latin中,用来计算字符串长度的函数是 _____

  20. 在Pig Latin中,用来转换字符串为整数的函数是 _____。

  21. 在Pig Latin中,用来转换字符串为浮点数的函数是 _____

  22. 在Pig Latin中,用来获取当前日期的函数是 _____

  23. 在Pig Latin中,用来获取当前时间的函数是 _____

  24. 在Pig Latin中,用来获取当前日期和时间的函数是 _____

  25. 在Pig Latin中,用来获取指定关系的字段数目的函数是 _____

  26. 在Pig Latin中,用来获取指定关系的数据类型的函数是 _____

答案:

一、填空题

  1. 使用Pig Latin语言加载数据的命令是 LOAD INTO ...

  2. 在Pig Latin中,用来创建关系型数据的命令是 DEFINE

  3. 在Pig Latin中,用来过滤数据的命令是 FILTER BY

  4. 在Pig Latin中,用来选择特定列的命令是 FOREACH GENERATE

  5. 在Pig Latin中,用来对数据分组的命令是 GROUP BY

  6. 在Pig Latin中,用来对数据排序的命令是 ORDER BY

  7. 在Pig Latin中,用来计算数据统计信息的命令是 DESCRIBE

  8. 在Pig Latin中,用来将数据存储到文件系统中的命令是 STORE INTO

  9. 在Pig Latin中,用来清除已定义关系的命令是 CLEAR

  10. 在Pig Latin中,用来连接两个或多个关系的命令是 JOIN BY , BY

  11. 在Pig Latin中,用来处理NULL值的命令是 COGROUP BY

  12. 在Pig Latin中,用来计算关系的行数的命令是 COUNT()

  13. 在Pig Latin中,用来计算关系的聚合函数SUM的命令是 SUM()

  14. 在Pig Latin中,用来计算关系的平均值的命令是 AVG()

  15. 在Pig Latin中,用来计算关系的最大值的命令是 MAX()

  16. 在Pig Latin中,用来计算关系的最小值的命令是 MIN()

  17. 在Pig Latin中,用来计算关系的唯一值的命令是 DISTINCT()

  18. 在Pig Latin中,用来将字符串转换为小写的函数是 LOWER()

  19. 在Pig Latin中,用来将字符串转换为大写的函数是 UPPER()

  20. 在Pig Latin中,用来截取字符串的函数是 SUBSTRING()

  21. 在Pig Latin中,用来连接字符串的函数是 CONCAT()

  22. 在Pig Latin中,用来判断字符串是否匹配某种模式的函数是 MATCHES()

  23. 在Pig Latin中,用来计算字符串长度的函数是 SIZE()

  24. 在Pig Latin中,用来转换字符串为整数的函数是 INT()

  25. 在Pig Latin中,用来转换字符串为浮点数的函数是 DOUBLE()

  26. 在Pig Latin中,用来获取当前日期的函数是 CURRENT_DATE()

  27. 在Pig Latin中,用来获取当前时间的函数是 CURRENT_TIME()

  28. 在Pig Latin中,用来获取当前日期和时间的函数是 CURRENT_TIMESTAMP()

  29. 在Pig Latin中,用来获取指定关系的字段数目的函数是 SIZE()

  30. 在Pig Latin中,用来获取指定关系的数据类型的函数是 TYPEOF()


Hadoop题

一、填空题

  1. 查看Hadoop集群中文件系统状态的命令是 hadoop fs ___

  2. 在Hadoop集群中创建一个新目录的命令是 hadoop fs ___

  3. 将本地文件上传到Hadoop集群中的命令是 hadoop fs ___ ___

  4. 从Hadoop集群中下载文件到本地的命令是 hadoop fs ___ ___

  5. 在Hadoop集群中删除一个文件的命令是 hadoop fs ___

  6. 在Hadoop集群中递归删除一个目录的命令是 hadoop fs ___

  7. 查看Hadoop集群中指定路径下的文件列表的命令是 hadoop fs ___

  8. 查看Hadoop集群中文件的详细信息的命令是 hadoop fs ___

  9. 查看Hadoop集群中文件的块信息的命令是 hadoop fs -___

  10. 在Hadoop集群中复制文件的命令是 hadoop fs ___ ___

  11. 将Hadoop集群中的文件合并到一个本地文件的命令是 hadoop fs ___ ___

  12. 在Hadoop集群中更改文件或目录的权限的命令是 hadoop fs ___ ___

  13. 在Hadoop集群中更改文件或目录的所有者的命令是 hadoop fs ___ ___

  14. 在Hadoop集群中查看文件或目录的ACL信息的命令是 hadoop fs ___

  15. 在Hadoop集群中设置文件或目录的ACL信息的命令是 hadoop fs ___ ___

  16. 在Hadoop集群中列出当前运行的作业的命令是 ___`。

  17. 查看Hadoop集群中运行作业的详细信息的命令是 ___`。

  18. 杀死正在运行的Hadoop作业的命令是 b ___`。

  19. 查看Hadoop集群中的节点信息的命令是 ___`。

  20. 在Hadoop集群中格式化文件系统的命令是 ___`。

  21. 启动Hadoop集群中的所有守护进程的命令是 ___`。

  22. 停止Hadoop集群中的所有守护进程的命令是 ___`。

  23. 在Hadoop集群中查看HDFS容量使用情况的命令是 ___`。

  24. 在Hadoop集群中设置MapReduce作业的参数的命令是 ___`。

  25. 在Hadoop集群中运行一个已打包的MapReduce作业的命令是 ___`。

  26. 在Hadoop集群中查看MapReduce作业日志的命令是 ___`。

  27. 在Hadoop集群中查看HDFS文件系统中文件块的位置的命令是 ___`。

  28. 在Hadoop集群中复制文件到HDFS的命令是 ___`。

  29. 在Hadoop集群中从HDFS复制文件到本地的命令是 ___`。

  30. 在Hadoop集群中查看当前所有运行的MapReduce作业的命令是 ___`。


答案

一、填空题

  1. 查看Hadoop集群中文件系统状态的命令是 hadoop fs -stat

  2. 在Hadoop集群中创建一个新目录的命令是 hadoop fs -mkdir

  3. 将本地文件上传到Hadoop集群中的命令是 hadoop fs -put <local-path> <hdfs-path>

  4. 从Hadoop集群中下载文件到本地的命令是 hadoop fs -get <hdfs-path> <local-path>

  5. 在Hadoop集群中删除一个文件的命令是 hadoop fs -rm <hdfs-path>

  6. 在Hadoop集群中递归删除一个目录的命令是 hadoop fs -rm -r <hdfs-path>

  7. 查看Hadoop集群中指定路径下的文件列表的命令是 hadoop fs -ls <hdfs-path>

  8. 查看Hadoop集群中文件的详细信息的命令是 hadoop fs -stat <hdfs-path>

  9. 查看Hadoop集群中文件的块信息的命令是 hadoop fs -du -h <hdfs-path>

  10. 在Hadoop集群中复制文件的命令是 hadoop fs -cp <src> <dest>

  11. 将Hadoop集群中的文件合并到一个本地文件的命令是 hadoop fs -getmerge <src> <local-path>

  12. 在Hadoop集群中更改文件或目录的权限的命令是 hadoop fs -chmod <permission> <hdfs-path>

  13. 在Hadoop集群中更改文件或目录的所有者的命令是 hadoop fs -chown <owner> <hdfs-path>

  14. 在Hadoop集群中查看文件或目录的ACL信息的命令是 hadoop fs -getfacl <hdfs-path>

  15. 在Hadoop集群中设置文件或目录的ACL信息的命令是 hadoop fs -setfacl -m <acl-spec> <hdfs-path>

  16. 在Hadoop集群中列出当前运行的作业的命令是 hadoop job -list

  17. 查看Hadoop集群中运行作业的详细信息的命令是 hadoop job -status <job-id>

  18. 杀死正在运行的Hadoop作业的命令是 hadoop job -kill <job-id>

  19. 查看Hadoop集群中的节点信息的命令是 hadoop dfsadmin -report

  20. 在Hadoop集群中格式化文件系统的命令是 hadoop namenode -format

  21. 启动Hadoop集群中的所有守护进程的命令是 start-all.sh

  22. 停止Hadoop集群中的所有守护进程的命令是 stop-all.sh

  23. 在Hadoop集群中查看HDFS容量使用情况的命令是 hadoop fs -df -h

  24. 在Hadoop集群中设置MapReduce作业的参数的命令是 hadoop jar <jar-file> <main-class> -D<property>=<value>

  25. 在Hadoop集群中运行一个已打包的MapReduce作业的命令是 hadoop jar <jar-file> <main-class>

  26. 在Hadoop集群中查看MapReduce作业日志的命令是 yarn logs -applicationId <application-id>

  27. 在Hadoop集群中查看HDFS文件系统中文件块的位置的命令是 hadoop fsck <hdfs-path> -files -blocks -locations

  28. 在Hadoop集群中复制文件到HDFS的命令是 hadoop fs -copyFromLocal <local-src> <hdfs-dest>

  29. 在Hadoop集群中从HDFS复制文件到本地的命令是 hadoop fs -copyToLocal <hdfs-src> <local-dest>

  30. 在Hadoop集群中查看当前所有运行的MapReduce作业的命令是 hadoop job -list-active.

  • 30
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值