Spark Shell客户端总结

Spark Shell客户端总结

1. 背景

  1. 作为服务器端运行软件,很多都会提供多种访问和操作方式。如mysql、hdfs、hbase、hive、clickhouse等等。都会提供api、shell客户端,web网页端、部分甚至还会有ui图形化工具。
  2. 多种多样的访问和操作方式,都是为了方便调试和查看这些服务器端运行软件的,一个好的服务器软件一定是要容易上手的,这时候shell客户端就很重要,可以通过输入交互性命令来快速学习和验证软件的各个功能。
  3. spark也不例外,提供了shell客户端来做交互式的数据操作,并且可以使用scala、python、R三种语言来访问和操作。

2. Spark Shell是什么

  1. spark shell是spark中的交互式命令行客户端,
  2. 可以在spark shell中使用scala编写spark程序,
  3. 启动后默认已经创建了SparkContext,别名为sc。有了sc才能进一步做数据操作。
    注意,在编写程序时,sparkContext是需要关闭的,这一点和操作mysql、hbase等是一样的,建立了连接不使用之后需要及时关闭

3. Spark Shell简单使用

3.1 启动Spark Shell

  1. shell 客户端位置
    /opt/apps/spark-3.0.1-bin-hadoop3.2/bin
    在spark安装目录的bin目录下,有一个spark-shell可执行文件
    在这里插入图片描述
  2. spark-shell的参数
# 查阅文档
./spark-shell --help
Usage: ./bin/spark-shell [options]

Scala REPL options:
  -I <file>                   preload <file>, enforcing line-by-line interpretation

Options:
  --master MASTER_URL         spark://host:port, mesos://host:port, yarn,
                              k8s://https://host:port, or local (Default: local[*]).
  --deploy-mode DEPLOY_MODE   Whether to launch the driver program locally ("client") or
                              on one of the worker machines inside the cluster ("cluster")
                              (Default: client).
  --class CLASS_NAME          Your application's main class (for Java / Scala apps).
  --name NAME                 A 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值