大数据题目集——选择题

1:IBM提出的大数据的5V特点包括: ( ) 、高速、低价值密度、真实性。大量、多样

2:大数据是由结构化数据、半结构化数据和 ( )数据组成的。非结构化

3:Hadoop是一个数据管理系统,作为( ) 的核心,汇集了结构化和非结构化的数据。数据分析

4:Hadoop是一个大规模( ),拥有超级计算能力。并行处理框架

5:( )是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在( )中的大规模数据的机制。Hive, Hadoop

6:Hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成( )任务来执行。MapReduce

7:数据表文件的元数据保存在HDFS的( )中,实际数据则存储在 ( )中。NameNode, DataNode

8:Hive中通常使用( )分隔字段(列),在CREATE TABLE语句中,可以使用八进制编码\001表示。^A(CTRL+A)

9:Hive中通常使用( )用于分隔ARRARY或者STRUCT中的元素,或用于MAP中键-值对之间的分隔,在CREATE TABLE语句中,可以使用八进制编码\002表示。^B(CTRL+B)

10:Hive中通常使用 ( )用于MAP中键和值之间的分隔,在CREATE TABLE语句中,可以使用八进制编码\003表示。^C(CTRL+C)

11:以下正确的是:( )。
select *from dept_partition distribute by deptno sort by deptno与 select *from dept_partition cluster by deptno

12:在redis数据库中,要修改某键的值,可使用( )命令。SET

13:在redis数据库中,要新键一个键并赋值,可使用( )命令。SET

14:在redis数据库中,要删除一个键及其值,可使用( )命令。DEL

15:在redis数据库中,要获取某键的值,可以使用( )命令。GET

16:在redis中,向列表头部添加元素的命令是( )。LPUSH

17:在redis中,向列表尾部添加元素的命令是( )。RPUSH

18:在redis中,向列表中部添加元素的命令是( )。LINSERT

19:在redis中,从列表头部弹出元素的命令是( )。LPOP

20:在redis中,从列表尾部弹出元素的命令是( )。RPOP

21:在redis中,从列表删除指定值的命令是( )。LREM

22:在redis中,获取列表中元素个数的命令是( )。LLEN

23:在redis中,获取列表的子列表的命令是( )。LRANGE

24:在redis中,获取列表中指定索引的值的命令是 ____ 。LINDEX

25:在redis中,修改列表中指定索引的值的命令是 ____ 。LSET

26:在redis中,修改hash键的字段值的命令是 ____ 。HSET

27:在redis中,同时为hash键的多个字段赋值的命令是 ____ 。HMSET

28:在redis中,删除hash键的字段的命令是 ____ 。HDEL

29:在redis中,获取hash键的一个字段的值的命令是 ____ 。HGET

30:在redis中,获取hash键的多字段的值的命令是 ____ 。HMGET

31:在redis中,获取hash键的所有字段和所有值的命令是 ____ 。HGETALL

32:在redis中,检查hash键的某字段是否存在的命令是 ____ 。HEXISTS

33:在redis中,获取hash键的所有字段名的命令是 ____ 。HKEYS

34:在redis中,获取hash键的所有字段值的命令是 ____ 。HVALS

35:在redis中,获取hash键的字段数量的命令是 ____ 。HLEN

36:在redis中,增加集合键的元素的命令是 ____ 。SADD

37:在redis中,删除集合键的元素的命令是 ____ 。SREM

38:在redis中,获取指定集合的所有元素的命令是 ____ 。SMEMBERS

39:在redis中,判断给定集合中某个元素是否存在的命令是 ____ 。SISMEMBER

40:在redis中,获取集合中元素个数的命令是 ____ 。SCARD

41:在redis数据库中,增加有序集合元素的命令是( )。ZADD

42:在redis数据库中,删除有序集合的元素的命令是( )。ZREM

43:在redis数据库中,根据排名范围删除有序集合的元素的命令是( )。ZREMRANGEBYRANK

44:在redis数据库中,按照分数范围删除有序集合的元素的命令是( )。ZREMRANGEBYSCORE

45:在redis数据库中,获取有序集合的元素分数的命令是( )。ZSCORE

46:在redis数据库中,获取排名在某个范围内的有序集合元素列表的命令是( )。ZRANGE

47:在redis数据库中,获取指定分数范围的有序集合元素的命令是( )。ZRANGEBYSCORE

48:在redis数据库中,获取有序集合中元素的数量的命令是( )。ZCARD

49:在redis数据库中,获取有序集合中指定分数范围内的元素个数的命令是( )。ZCOUNT

50:在redis数据库中,获取有序集合中元素的倒序排名的命令是( )。ZREVRANK

51:Hbase是一个高可靠性、高性能、 ( ) 可伸缩的分布式存储系统。面向列

52:HBase利用 ( )作为其文件存储系统。HDFS

53:HBase利用( )来处理HBase中的海量数据。Hadoop MapReduce

54:HBase利用( )作为协同服务。Zookeeper

55:一个HBase表被分组成许多( )的集合,它是基本的访问控制单元。列族

56:( )是HBase集群上分布数据的最小单位。区域

57:当一张表的行太多的时候,HBase 就会根据( )的值对表中的行进行分区。行键

58:每个 Region 由( ) Store 组成,每个 Store 保存一个( )的数据。一个或者多个,列族

59:HBase的每个 Store 又由( )个 memStore 和 ( )个 Store File 组成。Store File 以 HFile 格式保存在 HDFS 上。一,0 至多

60:HBase创建表的命令是( )。create

61:HBase修改列族的命令是( )。alter

62:HBase删除表的命令是( )。drop

63:HBase添加表的数据的命令是( )。put

64:HBase通过扫描表来获取有用的值,可使用命令( )。scan

65:HBase中获取行的值的命令( )。get

66:HBase统计表中行的数量的命令是( )。count

67:HBase删除表中指定对象的值的命令( )。delete

68:HBase删除指定行的所有元素值的命令是( )。deleteall

69:HBase中获取行键所在的区域的命令是( )。locate_region

70:MongoDB支持( )和( )两种分片策略,用于跨分片集群分发数据。哈希分片,范围分片

71:MongoDB 创建数据库的命令是( )。USE

72:图数据库中节点可有( )个标签,但是关系必须且只能设置一个关系类型。零到多

73:图数据库在修改节点或向现有节点新增关系之前,必须先( )事务。启动

74:图数据库中最短的路径仅包含( ),其长度为( )。单个节点,0

75:Neo4j中创建节点,关系和属性的命令是( )。CREATE

76:Neo4j中获取有关节点,关系和属性数据的命令是( )。MATCH

77:Neo4j中删除节点和关系的命令是( )。DELETE

78:Neo4j中删除节点和关系的属性的命令是( )。REMOVE

79:Neo4j中添加或更新标签的命令是( )。SET

80:在Neo4j中,创建索引的命令是( )。CREATE INDEX

81:在Neo4j中,删除索引的命令是( )。DROP INDEX

82:在Neo4j中,创建唯一约束的命令是( )。CREATE CONSTRAINT

83:在Neo4j中,删除唯一约束的命令是( )。DROP CONSTRAINT

  • 1
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 好的,下面是对大数据面试题——spark面试题(一)的回答: 1. 什么是Spark?它与Hadoop有什么区别? Spark是一个快速、通用、可扩展的大数据处理引擎,它可以在内存中进行数据处理,因此比Hadoop更快。与Hadoop相比,Spark的优点在于它可以在内存中进行数据处理,因此速度更快,而且它支持更多的数据处理方式,例如流处理、图形处理等。 2. Spark的核心组件有哪些? Spark的核心组件包括Spark Core、Spark SQL、Spark Streaming、MLlib和GraphX。 3. 什么是RDD?它有哪些特点? RDD是Spark中的一个基本概念,它代表一个不可变的分布式数据合。RDD具有以下特点: - 可以在内存中进行计算,因此速度快; - 支持多种操作,例如map、reduce、filter等; - 可以进行持久化,以便在后续计算中重复使用。 4. Spark中的map和flatMap有什么区别? map和flatMap都是RDD中的转换操作,它们的区别在于: - map操作对每个元素进行转换,返回一个新的元素; - flatMap操作对每个元素进行转换,返回一个包含多个元素的序列。 5. 什么是Spark的shuffle操作? Spark的shuffle操作是指将数据重新分区的操作,它通常发生在reduce操作之前。Shuffle操作会将数据从多个节点上收到一个节点上,然后重新分区,以便进行后续的计算。 6. Spark中的cache和persist有什么区别? cache和persist都是将RDD持久化到内存中,以便在后续计算中重复使用。它们的区别在于: - cache操作默认将数据持久化到内存中,而persist操作可以指定将数据持久化到内存、磁盘或者其他存储介质中; - cache操作是persist操作的一种简化形式,它默认将数据持久化到内存中,并且只能持久化到内存中。 7. Spark中的reduceByKey和groupByKey有什么区别? reduceByKey和groupByKey都是对键值对RDD进行操作的函数,它们的区别在于: - reduceByKey操作会在每个分区内先进行本地聚合,然后再进行全局聚合,因此效率更高; - groupByKey操作会将所有的键值对都进行网络传输,然后在一个节点上进行聚合,因此效率较低。 8. Spark中的broadcast变量有什么作用? broadcast变量是一种只读的变量,它可以在所有节点上共享,以便在计算过程中使用。使用broadcast变量可以避免在网络上传输大量的数据,从而提高计算效率。 9. 什么是Spark的checkpoint操作? Spark的checkpoint操作是将RDD持久化到磁盘上,以便在后续计算中重复使用。与cache和persist不同的是,checkpoint操作会将数据持久化到磁盘上,以便在内存不足时可以从磁盘上恢复数据。 10. Spark中的Task是什么? Task是Spark中的一个基本概念,它代表一个可以在一个节点上执行的计算任务。Spark将一个RDD分成多个分区,每个分区对应一个Task,这些Task可以并行执行,以提高计算效率。 ### 回答2: 今天我们来讨论一下关于Spark大数据面试的一些常见问题。Spark是一种基于Hadoop的开源计算系统,它能够快速处理大规模数据,并且支持多种编程语言,包括Java、Scala和Python等。以下是一些Spark面试题及其答案: 1. Spark有哪几种部署模式? Spark有三种部署模式,分别是本地模式、群模式和分布式模式。本地模式指的是在本地运行Spark应用程序,不需要连接到外部计算机。群模式指的是单个Spark群环境,它由一组Spark节点组成,可以在数据中心或云中运行。分布式模式指的是使用多个Spark群并行处理大规模数据。 2. Spark和Hadoop的区别是什么? Spark和Hadoop都是处理大规模数据的工具,但它们有一些区别。首先,Spark处理数据速度快,因为它将数据存储在内存中,而Hadoop则将数据存储在磁盘中。其次,Spark支持更多的编程语言,包括Java、Scala和Python等,而Hadoop只支持Java。此外,Spark具有更好的机器学习和图形处理功能,可以更好地支持大规模数据分析。 3. Spark的RDD是什么? RDD是Spark中重要的概念,全称为Resilient Distributed Dataset。它是一个不可变的分布式数据合,可以分区存储在不同节点上,并且每个分区都可以在并行处理中进行处理。RDD支持两种操作,即转化操作和行动操作。转化操作将一个RDD转换为另一个RDD,而行动操作返回一个结果或将结果输出至外部系统。 4. Spark的优化技术有哪些? Spark优化技术包括数据本地化、共享变量、宽依赖和窄依赖、缓存和持久化,以及数据分区等技术。数据本地化将数据存储在尽可能接近计算节点的位置,以减少网络传输的开销。共享变量将常用的变量通过广播或累加器的方式在节点中共享,从而减少网络传输量。宽依赖和窄依赖指的是在转化操作中RDD之间的依赖关系,窄依赖表示每个父分区最多与一个子分区有关联,而宽依赖则表示多个子分区可能与多个父分区关联。缓存和持久化技术可将RDD保存在内存中,从而加速访问速度。数据分区可以将数据划分为较小的块进行并行处理。 5. Spark Streaming是什么? Spark Streaming是Spark的一个扩展模块,它支持实时数据流处理。Spark Streaming可以将实时数据流以微批次方式处理,每个批次的数据处理平均耗时只有几秒钟。Spark Streaming可以将数据存储在内存或磁盘中,同时支持多种数据源和数据输出方式。 以上是关于Spark大数据面试题的一些回答,希望能够对大家有所帮助。如果你想深入学习Spark和大数据处理技术,可以考虑参加相关的培训课程或在线课程。 ### 回答3: Spark是一个分布式计算框架,它可以使大规模数据处理更加高效和便捷。因此,在企业招聘大数据领域的人才时,对Spark的技术能力要求越来越高。以下是Spark面试题的回答: 1. Spark有哪些组件? Spark框架由三个核心组件组成:Spark Core、Spark SQL和Spark Streaming。此外,还有Spark MLlib、Spark GraphX、Spark R等个别不同的子组件。 2. 什么是RDD?与Dataframe有什么区别? RDD(弹性分布式数据)是Spark的核心数据抽象,是不可变的分布式对象合。RDD可以从文件中读取数据、从内存中读取数据、并行修改数据等。而Dataframe和RDD类似,但是Dataframe更加强大,因为它是带有结构化的RDD。Dataframe在处理大规模结构化数据时非常有效和便捷。 3. Spark如何处理缺失数据? Spark提供了两种处理缺失数据的方法:第一种是使用DataFrame API中的na函数,可以删除或替换缺失值;第二种是使用MLlib中的Imputer类,可以将缺失值替换为均值或中位数。 4. 什么是Spark的任务(task)? 一个任务是Spark作业中的最小执行单位。Spark群上的作业被划分为多个任务,这些任务可以并行执行。 5. Spark的shuffle操作是什么?它为什么是昂贵的? Spark的shuffle操作是将一组数据重新分配到不同计算节点上的操作。Shuffle操作可能会导致大量数据的磁盘写入、网络传输和数据重组,这些都是非常昂贵的操作。因此,它在Spark群中是一个相当昂贵的操作。 6. Spark中的Partition有什么作用? Partition是Spark中的数据划分单位。它可以将数据分成多个块并对每个块进行处理。Partition 可以提高 Spark 的并行度和运行效率,因为它可以将大规模数据分成多个小块,并在群的多个计算节点上并行处理数据。 总而言之,Spark是大数据领域中使用最广泛的计算引擎之一,其技术理念和应用场景非常广泛。对于求职者而言,掌握 Spark 的基本概念和技术特点,提高对 Spark 的理解和应用能力,将有助于更好地处理和分析大规模数据

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值