SBT编译环境安装

本文介绍了如何在不支持sbt-0.13的环境下,参照其他文章安装sbt 1.1.1版本。在Spark针对HBase的操作中,涉及到了配置多个文件如xxx.sbt、spark-env.sh、hadoop-env.sh和bashrc。同时,针对hbase2.1和scala2.11的新版写法,作者提供了实测可用的scala代码,适用于hadoop3.1.1、hbase2.1.0和spark2.4.3。
摘要由CSDN通过智能技术生成

最初是参考林子雨的文章,http://dblab.xmu.edu.cn/blog/1307-2/ ,但发现sbt-0.13的版本已经不被支持了。
无奈参考这篇文章, https://www.cnblogs.com/hank-yan/p/8686281.html ,安装1.1.1版本。

安装相对容易,spark针对hbase的操作,需要注意如下事项。
1.每一个项目都会需要一个配置文件,即xxx.sbt 。我建立的内容如下:

[root@k8s-1 user01]# cat /usr/local/sbt/test/simple.sbt 
name := "Simple Project"
version := "1.0" 
scalaVersion := "2.11.12"
libraryDependencies ++= Seq(
	"org.apache.spark" %% "spark-core" % "2.4.3",
	"org.apache.spark" %% "spark-sql" % "2.4.3",
	"org.apache.spark" %% "spark-hive" % "2.4.3",
	"org.apache.spark" %% "spark-streaming" % "2.4.3",
	"org.apache.hbase" % "hbase-client" % "2.1.0",
	"org.apache.hbase" % "hbase-common" % "2.1.0",
	"org.apache.hbase" % "hbase-server" % "2.1.0",
	"org.apache.hbase" % "hbase-protocol" % "2.1.0",
	"org.apache.hbase" % "hbase-mapreduce" % "2.1.0"
)

2.配置spark-env.sh文件

[root@k8s-1 user01]# cat /opt/spark-2.4.3-bin-hadoop2.7/conf/spark-env.sh|grep -v "#"
export SPARK_MASTER_IP=k8s-1
export SPARK_WORKER_MEMORY=8g
export JAVA_HOME=/usr/java/jdk1.8.0_171
export SCALA_HOME=/opt/scala-2.11.8
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值