学习spark第一天

学习spark第一天

本人在做本科毕业设计时候接触过Hadoop的MapReduce框架,当时是在Hadoop上安装了Mahout插件,来跑聚类算法,处理了一些业务数据,有幸通过实验室项目了解到还有比Hadoop对数据的存取处理效率更快的基于农村计算的spark框架,最近闲下来的时候研究了一下这个东西,打算把所学的东西记录下来,以备不时之需:

  • Spark分布式执行所需的组件
  • scala程序打包发送给spark集群运行两种方式
  • 第一个spark程序

Spark分布式执行所需的组件

可以渲染序列图:

Created with Raphaël 2.1.0 驱动器程序(SparkContext) 驱动器程序(SparkContext) 工作节点【执行器(job job)】 工作节点【执行器(job job)】 control

scala程序打包发送给spark集群运行两种方式

spark程序打包发布

第一个spark程序

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._

object test {
  def main(args : Array[String]){
    println("hello spark!")
    val conf = new SparkConf().setMaster("spark://127.0.0.1:7077").setAppName("ConSparkAPP")
    val sc = new SparkContext(conf)
    sc.addJar("/home/hadoop/Desktop/test.jar");
    var lines = sc.textFile("/home/hadoop/Desktop/error")
    var nginxLine = lines.filter(line => line.contains("nginx"))
    println("nginx occure first at:  "+nginxLine.first())
    sc.stop();
  }
}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值