Spark大数据-structured streaming

structured streaming概述

  • structured streaming引入持续流处理模式,真正支持毫秒级别响应。spark streaming无法满足毫秒级响应。2.2正式发布。
  • 重新抽象流式计算,基于DataFrame数据抽象。易于exactly-once(所有数据只被处理一次),以前的spark为at-least once(所有数据至少处理一次)。
    在这里插入图片描述
    在这里插入图片描述

1.structured streaming基于套接字流数据源

1.创建SparkSession实例;
2.创建DataFrame表示从数据源输入的每一行数据;
3.DataFrame转换,类似于RDD转换操作;
4.创建StreamingQuery开启流查询;
5.调用StreamingQuery.awaitTermination()方法,等待流查询结束。

import org.apache.spark.sql.functions._
import org.apache.spark.sql.SparkSession
// 创建sparksession
val spark=SparkSession.builder.appName("StructuredNetWorkCount").getOrCreate()
import spark.implicits._//开启隐式转换
// val conf = new SparkConf().setAppName("WordCount").setMaster("local[2]")
// val sc = new SparkContext(conf)
// 创建dataframe数据源
val lines=spark.readStream.format("socket").option("host","localhost").option("port",9999).load()
// DataFrame转化操作
val words=lines.as[String].flatMap(_.split(" "))
val wordCounts=words.groupBy("value").count()
// 执行流查询
val query=wordCounts.writeStream.outputMode("complete").format("console").start()
query.awaitTermination()

2.structured streaming基于文件数据源

import org.apache.spark.sql.SparkSession
// 创建sparksession
val spark=SparkSession.builder.appName("StructuredFileCount").getOrCreate()
import spark.implicits._//开启隐式转换
// 创建DataFrame
import org.apache.spark.sql.types._
val userSchema=new StructType().add("name","string").add("age","integer").add("hobby","string")
val userDF=spark.readStream.schema(userSchema).json("file:///home/chenbengang/ziyu_bigdata/quick_learn_spark/resource/")
val userlittler25DF=userDF.filter($"age"<25)
val hobbyDF=userlittler25DF.groupBy("hobby").count()
val query = hobbyDF.writeStream.outputMode("complete").format("console").start()
query.awaitTermination()
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数据分析职业是一个多金的职业,数据分析职位是一个金饭碗的职位,前景美好,但是要全面掌握大数据分析技术,非常困难,大部分学员的痛点是不能快速找到入门要点,精准快速上手。本课程采用项目驱动的方式,以Spark3和Clickhouse技术为突破口,带领学员快速入门Spark3+Clickhouse数据分析,促使学员成为一名高效且优秀的大数据分析人才。学员通过本课程的学习,不仅可以掌握使用Python3进行Spark3数据分析,还会掌握利用Scala/java进行Spark数据分析,多语言并进,力求全面掌握;另外通过项目驱动,掌握Spark框架的精髓,教导Spark源码查看的技巧;会学到Spark性能优化的核心要点,成为企业急缺的数据分析人才;更会通过Clickhouse和Spark搭建OLAP引擎,使学员对大数据生态圈有一个更加全面的认识和能力的综合提升。真实的数据分析项目,学完即可拿来作为自己的项目经验,增加面试谈薪筹码。课程涉及内容:Ø  Spark内核原理(RDD、DataFrame、Dataset、Structed Stream、SparkML、SparkSQL)Ø  Spark离线数据分析(千万简历数据分析、雪花模型离线数仓构建)Ø  Spark特征处理及模型预测Ø  Spark实时数据分析(Structed Stream)原理及实战Ø  Spark+Hive构建离线数据仓库(数仓概念ODS/DWD/DWS/ADS)Ø  Clickhouse核心原理及实战Ø  Clickhouse engine详解Ø  Spark向Clickhouse导入简历数据,进行数据聚合分析Ø  catboost训练房价预测机器学习模型Ø  基于Clickhouse构建机器学习模型利用SQL进行房价预测Ø  Clickhouse集群监控,Nginx反向代理Grafana+Prometheus+Clickhouse+node_exporterØ  Spark性能优化Ø  Spark工程师面试宝典       课程组件:集群监控:福利:本课程凡是消费满359的学员,一律送出价值109元的实体书籍.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值