spark快速大数据分析之学习记录(四)

题外话:这是一个“连载”,主要用于记录并监督我每周的Spark学习进程

一、初始化SparkContext【基于python】

1.新建一个py文件,用于存放python脚本(备注:我在桌面建了一个文件夹py,主要用来存放python脚本)

shell命令:

sudo vim "test.py"

然后在test.py文本中输入以下程序:

from pyspark import SparkConf,SparkContext

conf=SparkConf().setMaster("local").setAppName("My App")
sc=SparkContext(conf=conf)

{

其中:

setMaster:用来指定spark如何连接到集群上,local为本地模式,是指让spark运行在单机单线程上而无需连接到集群

setAppName:用来设定应用名。本例中使用的是My App。当连接到一个集群时,这个值可以帮助你在集群管理器的用户界面中找到你的应用。(暂不太懂,文字取自《Spark快速大数据分析》

}

保存文件并退出,然后启动该程序。

shell命令:

cd /usr/lib/spark/spark-2.4.3-bin-hadoop2.7/    #进入spark目录

./bin/spark-submit /home/hadoop/桌面/py/test.py   #运行

运行截图:

二、运行examples中自带的wordcount.py

spark目录下有个examples文件夹,里面附带python编写的各类示例,如下图所示:

同样,通过shell命令来运行wordcount.py

shell命令:

./bin/spark-submit ./examples/src/main/python/wordcount.py README.md

运行截图:

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值