pyspark 程序头与程序提交集群命令

这里介绍使用SparkContext的pyspark注册头,通过SparkConf对SparkContext进行配置,SparkConf可以设置各种配置参数,如下面所示:

from pyspark.context import SparkContext
from pyspark.sql import SQLContext
from pyspark.context import SparkConf
from pyspark.sql import HiveContext
from pyspark.sql.functions import *
import pandas as pd

conf=SparkConf().setAppName("nettest_yp").setMaster("yarn").set("deploy-mode","client")
sc=SparkContext(conf=conf)
sqlContext = SQLContext(sc)

其次,对于写好的pyspark程序,可以使用spark-submit来提交到集群上,命令示例如下:

spark-submit --master yarn --deploy-mode client --num-executors 6 --driver-memory 1g --executor-memory 5g -- executor-cores 2 demo.py

这里提交的同时配置的参数有使用的节点数,驱动内存大小,执行内存大小,核数等。

如有任何问题可以加群R语言&大数据分析456726635或者Python & Spark大数636866908与我联系。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值