spark简单自我介绍

Apache Spark 是大规模数据处理领域一个快速的常见的引擎,以下是Spark的一些特点:

速度:
    在内存上运行程序相当于hadoop mapreduce处理的100倍,在磁盘上运行速度是hadoop的10倍

Spark提供一个高级的DAG处理引擎,可以支持循环数据流和内存计算。



容易使用:

    使用java,scala,python,r语言可以很快的开发应用

Spark 提供了超过80总高级操作,使得它可以很容易的建立起平行的应用,而且你通过scala,python,R 脚本可以交互的使用它,如下所示,使用很少的数据即可实现单词计数的功能:





普遍性:
    结合sql,流,和复杂的分析

Spark提供了一堆类库,包含sql和DataFrames,机器学习MLib,Graphx,和Spark Stream.你可以无缝的在同样的应用中结合这些库






到处运行:
    Spark可以运行在Hadoop,Mesos,单机,或者是在云上。他可以进入不同的数据源,包括HDFS,Cassandra,和S3.

你可以在Hadoop Yarn,EC2,通过单机集群模式运行Spark,或者是Apache Mesos.进入HDFS,Cassandra,HBase,Hive,Tachyon,和任何的Hadoop数据源




  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark是一款快速、通用、可扩展的大数据处理引擎,有着丰富的API和数据处理组件。以下是Spark基本语句介绍: 1. 创建RDD:使用SparkContext对象的parallelize()方法可以将一个集合转化为RDD。例如,下面的代码创建了一个包含1到10整数的RDD。 ``` val rdd = sc.parallelize(1 to 10) ``` 2. 转化操作:Spark支持多种转化操作,如map、filter、flatMap、union等。例如,下面的代码将rdd中的每个元素都加1。 ``` val rdd2 = rdd.map(x => x + 1) ``` 3. 行动操作:行动操作会触发Spark计算并返回结果。例如,下面的代码使用reduce()方法将rdd2中的元素相加。 ``` val sum = rdd2.reduce((x, y) => x + y) ``` 4. 键值对RDD操作:Spark还支持基于键值对的操作,如reduceByKey、groupByKey、sortByKey等。例如,下面的代码将rdd2转化为键值对RDD,并根据键进行求和。 ``` val kvRdd = rdd2.map(x => (x % 2, x)) val sumByKey = kvRdd.reduceByKey((x, y) => x + y) ``` 5. Spark SQL:Spark SQL是Spark的另一个组件,用于处理结构化数据。可以使用SparkSession对象来创建DataFrame或Dataset,并执行SQL查询。例如,下面的代码从一个json文件中创建DataFrame,并执行查询。 ``` val df = spark.read.json("file.json") df.createOrReplaceTempView("people") val result = spark.sql("SELECT * FROM people WHERE age > 18") ``` 这些是Spark的基本语句,可以帮助你开始使用Spark进行数据处理和分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值