单机spark的安装

#1.解压重命名
	spark-3.1.2

#2.配置环境变量
	vim /etc/profile.d/my.sh
	-------------------------------------------
	# spark
	export SPARK_HOME=/opt/software/spark-3.1.2
	export PATH=$SPARK_HOME/bin:$PATH
	--------------------------------------------
	激活环境变量 
	source /etc/profile

#3.拷贝conf目录下的spark-env.sh.template,workers.template
	cp spark-env.sh.template spark-env.sh
	cp workers.template workers(单机无需添加集群主机映射)

#4.添加spark-env.sh配置
	export SCALA_HOME=/opt/software/scala-2.12.10
	export JAVA_HOME=/opt/software/jdk1.8.0_171
	export SPARK_HOME=/opt/software/spark-3.1.2
	export HADOOP_INSTALL=/opt/software/hadoop-3.1.3
    #spark运行在yarn上
	export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
	export SPARK_MASTER_IP=single03
	export SPARK_DRIVER_MEMORY=2G
	#shuffle产生临时文件的地方
	export SPARK_LOCAL_DIRS=/opt/bigdata/spark245 
    export SPARK_EXECUTOR_MEMORY=2G

#5.启动spark
	spark-shell

#6.WordCount
	在一个目录里新建一个txt文本:vim hello.txt
	----------------
	hello world
	hello spark
	hello scala
	-----------------

	val rdd1=sc.textFile("file:///root/wordcount/hello.txt")
	#wordcount的scala的实现
	rdd1.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect

End

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值