在windows下配置eclipse的spark调试环境

25 篇文章 0 订阅
1.下载配置jdk,scala。
2.下载eclipse for scala。
3.下载带编译好的spark jar包。
4.在eclipse中新建工程,导入 spark-assembly-1.1.1-hadoop1.0.4.jar 这类jar包,并且删除scala原有的library。
5.新建类,输入以下代码,执行成功就可以了
import scala.math. random

import org.apache.spark._

/** Computes an approximation to pi */
object test2 {
def main ( args : Array[ String ]) {
val conf = new SparkConf(). setAppName ( "Spark Pi" ). setMaster ("local" )
val spark = new SparkContext( conf )
val slices = if ( args . length > 0 ) args ( 0 ). toInt else 2
val n = math. min ( 100000L * slices , Int . MaxValue ). toInt // avoid overflow
val count = spark . parallelize ( 1 until n , slices ). map { i =>
val x = random * 2 - 1
val y = random * 2 - 1
if ( x * x + y * y < 1 ) 1 else 0
}. reduce (_ + _)
println ( "Pi is roughly " + 4.0 * count / n )
spark . stop ()
}
}
其中最重要的是黄底的位置,必须设置为local,在使用ide本地调试的时候,不管是eclipse还是IntelliJ都是配置上面的conf
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值