spark python还是scala_第2篇:启动spark中的python 和 scala的shell

本机:win10

python3.5.4

spark3.0.0

JDK13.0.1

scala2.13.1

hadoop2.7.7

shell的交互式环境是帮助你调试程序的!

情况一:如果想打开scala版本的shell

终端输入  spark-shell

进入scala的shell(由于没有添加--master参数,因此默认进入 local[*]模式)

// 采用本地模式,在4个CPU核心上运行spark-shell

spark-shell --master local[4]

// 在classpath中添加code.jar依赖

spark-shell --master local[4] --jars code.jar

// 执行“spark-shell --help”命令,获取完整的选项列表

spark-shell --help

退出scala交互环境

:quit

情况二: 打开python版本的Spark shell,也就是PySpark shell

若没有配置spark环境需要:

进入你的spark目录然后输入:

bin\pyspark   (windows)

若已经配置了spark环境

终端输入  pyspark

进入python

补充一点:

进入shell之后,输入    sc

可以查看计算内核

根据《spark快速大数据分析》介绍:

每个spark应用都由一个 驱动器程序 来发起集群上的而各种并行操作。   驱动器程序可以是spark shell本身。

驱动器程序通过一个SparkContext的对象来访问Spark,充当连接。

在启动或者jupyter时,就已经自动创建了一个SparkContext对象,用sc变量表示。

有了SparkContext对象才可以创建RDD(弹性分布式数据集)。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值