Spark大数据技术第二章测验

Spark大数据技术第二章测验

1、在Ubuntu系统中,软件的安装是通过什么命令加软件名这种方式进行的

  apt-get uninstall

  apt-get upgrade

  apt-get install

  apt-get update

 2、什么是与Spark环境相关的配置文件

  spark-env.sh

  log4j.properties

  slaves

  profile  

 3、什么是与Spark日志相关的配置文件

  spark-env.sh

  log4j.properties

  slaves

  profile  

 4、什么是与Spark集群节点相关的配置文件

  spark-env.sh

  log4j.properties

  slaves

  profile

 5、什么命令可把应用提交到集群

  python

  spark

  spark-submit

  pyspark  

 6、什么是 Spark 为 Python 开发者提供的 API

  python

  spark

  spark-submit

  pyspark

 7、Spark支持多种开发语言API,分别为

  Java

  Scala

  C#

  Python  

 8、Spark运行环境搭建依赖

  Java

  Scala

  Spark

  Python

 9、http://spark.apache.org是下载什么的官网

  java

  spark

  python

  scala

 10、http://www.Scala-lang.org是下载什么的官网

  python

  spark

  scala

  java

 11、http://www.oracle.com是下载什么的官网

  python

  spark

  pyspark

  java

 12、Spark在使用之前,需要进行一定的配置,主要包括

  安装SSH

  修改环境变量

  修改Spark文件夹的访问权限

  节点参数配置

 13、Spark使用Scala语言进行开发,Scala运行在Java平台之上,因此需要下载并安装JDK和Scala。

  True

  False

 14、集群启动完毕后,可以使用spark-submit命令进行任务的提交。

  True

  False

 15、Spark在使用之前,需要进行一定的配置。主要包括安装SSH,实现免密码登录,修改环境变量,修改Spark文件夹的访问权限,节点参数配置等。

  True

  False

 16、SSH(Secure Shell)是一种安全的传输协议。通过SSH协议对传输的数据进行加密,可用来登录远程主机,从而有效防止远程管理过程中的信息泄露

  True

  False

 17、Windows操作系统里面的环境变量的设置是图形化的工具,在Linux里面需要手动的修改/etc/profile文件,也可以修改~/.bashrc文件。

  True

  False

 18、Spark应用最终是以提交集群任务的方式进行的,所以在提交应用之前需要先启动集群,并查看集群状态,确保集群处于正常的可使用状态。

  True

  False

 19、应用提交集群后,应用的基本信息和运行情况都将会在web界面中展现出来。

  True

  False

 20、spark监控界面completed applications列表中,将会出现运行过的应用。包括应用的名称,使用的核心、内存、提交时间、所有者和运行时间等信息。

  True

  False

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值