- 配置spark环境,可参考
- 官网下载 IntelliJ IDEA,然后安装,一直next即可
安装Scala插件
创建一个新工程
Ctrl
+Shift
+Alt
+s
,导入spark依赖包
Apply应用
新建一个Scala Class
选择Object
使用以下代码测试是否成功,该代码过滤出带有hadoop
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.rdd.RDD
object test {
def main(args: Array[String]): Unit = {
val conf = new SparkConf()
conf.setAppName("MyFirstSparkApplication")
conf.setMaster("local")
val sc = new SparkContext(conf)
val lines = sc.textFile("word.txt")
println("ok!")
sc.stop()
}
}
Ctrl
+Shift
+F10
运行程序