【spark系列2】spark中运行scala程序(build.sbt中的版本号问题)

spark的安装见上一篇博客。程序完成统计build.sbt文件中包括scala和spark的行数。

scala代码

文件名:SimpleJob.scala
/*** SimpleJob.scala ***/
import spark.SparkContext
import SparkContext._

object SimpleJob {
  def main(args: Array[String]) {
    val logFile = "build.sbt" // Should be some file on your system
    val sc = new SparkContext("local", "Simple Job", "$YOUR_SPARK_HOME",
        List("target/scala-2.9.3/simple-project_2.9.3-1.0.jar"))
    val logData = sc.textFile(logFile, 2).cache()
    val numAs = logData.filter(line => line.contains("scala")).count()
    val numBs = logData.filter(line => line.contains("spark")).count()
    println("[ Result ] Lines with scala: %s, Lines with spark: %s".format(numAs, numBs))
  }
}

build.sbt

name := "Simple Project"

version := "1.0"

scalaVersion := "2.9.3"

libraryDependencies += "org.spark-project" %% "spark-core" % "0.7.3"

resolvers ++= Seq(
  "Akka Repository" at "http://repo.akka.io/releases/",
  "Spray Repository" at "http://repo.spray.cc/")

build.sbt中版本号的问题

之前配置一直出问题,后来发现以下目录
*:\Users\myname\.ivy2\cache\org.spark-project\spark-core_2.9.3\ivy-0.7.3.xml
于是将scalaVersion改为2.9.3,spark-core改为0.7.3,就没问题了。

程序目录结构

find .

.
./simple.sbt
./src
./src/main
./src/main/scala
./src/main/scala/SimpleJob.scala

运行

在SimpleJob目录下,运行
sbt package
sbt run




效果


sbt package效果:


sbt run效果:



参考资料

1.Spark官方文档——本地编写并运行scala程序 http://www.cnblogs.com/vincent-hv/p/3298416.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值