spark在eclipse上配置

环境:spark1.4.0,hadoop2.6.0

1.安装好jdk

2.在spark的conf目录下找到spark-env.sh.template,打开,在后面加上

export SCALA_HOME=/home/jiahong/scala-2.11.6
export JAVA_HOME=/home/jiahong/jdk1.8.0_45
export HADOOP_CONF_DIR=/home/jiahong/hadoop-2.6.0/etc/hadoop

 

3.在eclipse的help->install new sofware上安装好scala插件

  地址为:http://download.scala-ide.org/sdk/e38/scala29/stable/site

 

4.使用Scala语言来开发spark程序

  3.1 在eclipse中,依次选择“File” –>“New” –> “Other…” –>  “Scala Wizard” –> “Scala Project”,创建一个Scala工程,命名

  3.2 右击“SaprkScala”工程,选择“Properties”,在弹出的框中,按照下图所示,依次选择“Java Build Path” –>“Libraties” –>“Add External JARs…”,加入spark的lib目录下的spark-assembly-1.4.0-hadoop2.6.0.jar

 

 

转载于:https://www.cnblogs.com/aijianiula/p/4592997.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值