IDE的使用,打包spark应用提交

hadoop,spark,kafka交流群:224209501

标签(空格分隔): spark

1,首先启动

cd /opt/modules/idea-IC-141.178.9/
bin/idea.sh 

2,导入scala插件

1.png-94.7kB
2.png-158.5kB
3.png-18.9kB
4.png-67.3kB
5.png-65.3kB

3,导入spark源码

6.png-19kB
7.png-31.5kB
8.png-21.9kB
9.png-50.4kB
10.png-37.5kB
11.png-20.4kB
12.png-47.8kB
13.png-56.8kB
14.png-19.3kB
15.png-80.8kB
16.png-77.4kB

4,创建scala工程

1.png-76.6kB
2.png-28.4kB
3.png-37kB
4.png-51.5kB
创建三个目录.png-52.6kB
5.png-61.3kB
6.png-32.8kB
7.png-67.4kB
9.png-47.2kB
10.png-111.1kB
11.png-74.7kB
12.png-110.9kB
13.png-78.9kB
14.png-115.7kB

5,导出jar包

15.png-97.2kB
16.png-32.9kB
17.png-43kB
18.png-75.5kB
19.png-107.1kB
20.png-113.2kB

6,示例代码

前提是
1,启动hdfs的namenode,datanode。
2,启动spark的master和slaves,本地测试无需启动。

package sparkIDEProgram
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
/**
 * Created by hadoop on 1/1/16.
 */
object SimpleApp {
  def main(args: Array[String]) {
    val logFile = "hdfs://spark.learn.com:8020/user/hadoop/spark/input/wc.input" // Should be some file on your system
    val conf = new SparkConf()
        .setAppName("Simple Application")
        .setMaster("spark://spark.learn.com:7077")//本地测试需要修改为local
    val sc = new SparkContext(conf)
    val logData = sc.textFile(logFile, 2).cache()
    val numAs = logData.filter(line => line.contains("a")).count()
    val numBs = logData.filter(line => line.contains("b")).count()
    println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
    sc.stop()
  }
}

7,提交打包好的应用

bin/spark-submit /opt/sparkTest/sparkTest.jar

webapp运行成功.png-65.4kB
运行成功.png-35.8kB
输出结果.png-44.6kB

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值