引用库pyspark

Spark Submit 脚本配置
本文介绍如何通过spark-submit脚本配置Spark运行环境,并解决Py4j缺失问题,实现pyspark脚本的正常执行。

2018/04/08

想不在shell里面写代码,就是用spark-submit来弄。


新下载pyspark的话,包有200多M。所以就想着直接引用spark自带的。(虽然pip下载的版本跟这个也是匹配的)
但是直接引用失败,缺少py4j,先安装。

后面的话,就必须在脚本执行前就把这个东西给引入进去。

1 #! /bin/python
  2 #coding:utf-8
  3 # 
  4 
  5 import os
  6 spark_home = os.getenv("SPARK_HOME")
  7 import sys
  8 sys.path.insert(0,os.path.join(spark_home,"python"))
  9 
 17 from pyspark import SparkConf,SparkContext
 20 conf = SparkConf().setMaster("spark://node1:7077").setAppName("Filter Payload")
 22 sc = SparkContext(conf = conf)

这样执行以后,可以在webui上看到这些个设置,而且输出也就是pyspark的输出。


image.png

2018/04/13
貌似有一个更好的脚本可以提供。
https://github.com/beeva/beeva-best-practices/blob/master/big_data/spark/README.md

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值