k8s on spark

k8s on spark

spark 介绍

1、spark介绍

spark-submit可以直接用于将Spark应用程序提交到Kubernetes集群。提交机制的工作方式如下:
Spark创建在Kubernetes容器中运行的Spark驱动程序。
驱动程序将创建执行程序,这些执行程序也将在Kubernetes Pod中运行并连接到它们,并执行应用程序代码。
当应用程序完成时,执行程序pod终止并被清理,但是驱动程序pod保留日志,并在Kubernetes API中保持“完成”状态,直到最终对其进行垃圾收集或手动清理为止。

2、安装条件
 部署k8s集群
 节点可用内存大于2G
 安装JAVA环境,jdk>=8

文档地址:http://spark.apache.org/docs/latest/running-on-kubernetes.html

安装部署

3、下载安装包
[root@master ~]# wget http://archive.apache.org/dist/spark/spark-2.4.3/spark-2.4.3-bin-hadoop2.7.tgz
[root@master ~]# tar xf spark-2.4.3-bin-hadoop2.7.tgz
[root@master ~]# mv spark-2.4.3-bin-hadoop2.7 /usr/local/spark-2.4.3
//添加环境变量
[root@master spark-2.4.3]# cat /etc/profile
export PATH=/usr/local/spark-2.4.3:$PATH
4、创建docker镜像
[root@master spark-2.4.0]# ./bin/docker-image-tool.sh -r wxtime -t 2.4.0 build
[root@master ~]# docker images
REPOSITORY                                                                       TAG                 IMAGE ID            CREATED             SIZE
wxtime/spark-r                                                                   2.4.0               592aff869ffb        4 days ago          756MB
wxtime/spark-py                                                                  2.4.0               47e104fe2827        4 days ago          462MB
wxtime/spark  
[root@master ~]# docker login                                                                  2.4.0               24aab7c864da        4 days ago          371MB
[root@master spark-2.4.0]# ./bin/docker-image-tool.sh -r wxtime -t 2.4.0 push
[root@master spark-2.4.0]# kubectl cluster-info
 Kubernetes master is running at https://192.168.1.101:6443
5、测试
[root@master spark-2.4.0]# ./bin/spark-shell
scala> sc.parallelize(1 to 1000).count()
res1: Long = 1000
[root@master spark-2.4.0] kubectl create serviceaccount spark
[root@master spark-2.4.0] kubectl create clusterrolebinding spark-role --clusterrole=edit --service account=default:spark --namespace=default
6、以集群模式启动SparkPi
bin/spark-submit \
--master k8s://https://10.10.0.224:6443 \
--deploy-mode cluster \
--name spark-pi \
--class org.apache.spark.examples.SparkPi \
--conf spark.executor.instances=5 \
--conf spark.kubernetes.container.image=wxtime/spark:2.4.3 \
--conf spark.kubernetes.container.image.pullPolicy=Always  \
local:///opt/spark/examples/jars/spark-examples_2.11-2.4.3.jar
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值