Spark学习之路
记录Spark的点点滴滴
秋风小凉鱼
技术无边界!
展开
-
Spark 检查点
1、设置检查点的代码基本如下,供参考. public static void main(String[] args) throws Exception { Function0<JavaStreamingContext> contextFactory = new Function0<JavaStreamingContext>() { ...原创 2018-09-14 10:11:09 · 609 阅读 · 0 评论 -
Spark SQL 在SparkStreaming中的运用
文章内容参考地址: http://spark.apache.org/docs/2.3.0/streaming-programming-guide.html#dataframe-and-sql-operations你可以使用SparkStreaming 中使用的SparkContext 来创建一个SparkSession ,每个RDD 被转换成一个DataFrame,注册为临时表,然后使...原创 2018-09-14 12:08:46 · 1839 阅读 · 0 评论 -
Spark 杂记--- 键值对操作RDD
1、 将一个普通的RDD转换为键值对RDD时,可以通过调用map()函数来实现,传递的函数需要返回键值对。 scala 版:scala> val lines =sc.parallelize(List("pandas","i like pandas"));lines: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD...原创 2018-09-07 16:36:03 · 1002 阅读 · 0 评论 -
Spark杂记
参考spark2.3.0文档http://spark.apache.org/docs/2.3.0/quick-start.html1、从spark 2.0开始,官网强烈推荐Dataset ,它比RDD拥有更好的性能. 2、启动spak-shell[spark@big-data-1 home]$ spark-shell Setting default log leve...原创 2018-09-06 17:03:37 · 225 阅读 · 0 评论