spark
qq_42506914
这个作者很懒,什么都没留下…
展开
-
yarnCluster运行源码(1)
YarnCluster运行模式,把资源调度交给Yarn来管理,而且driver运行的节点是由Rm来选择节点运行的。通过sparksubmit提交,会运行SparkSubmit这个类SparkSubmit 的main方法def main(args: Array[String]): Unit = { //封装传进来的参数 val appArgs = new SparkSubmit...原创 2019-03-15 19:59:23 · 307 阅读 · 0 评论 -
yarnCluster运行源码(2)
上次说到yarnClient 把 命令行 和 容器信息 提交到RM 运行AM首先 看AM的main方法def main(args: Array[String]): Unit = { SignalUtils.registerLogger(log) val amArgs = new ApplicationMasterArguments(args) 。。。 S...原创 2019-03-15 21:29:22 · 281 阅读 · 0 评论 -
yarnCluster运行源码(3)
上一阶段 在nm上运行了 CoarseGrainedExecutorBackend (消息通讯体),其实就是和dirver的CoarseGrainedSchedulerBackend 来通讯的CoarseGrainedExecutorBackend 的main方法run(driverUrl, executorId, hostname, cores, appId, worker...原创 2019-03-15 23:41:59 · 237 阅读 · 0 评论 -
yarn-client(与yarncluster不同的部分)
yarn-client 模式 SparkSubmit 的main 方法 main() submit(appArgs) //这里的childMainClass 是 userclass ...原创 2019-03-16 13:58:00 · 262 阅读 · 0 评论 -
sparkstream和kafka的高级消费者
object HighKafkaSource2 { def main(args: Array[String]): Unit = { //这种方式每次都是new 的 // offset保存并没有起效果 //造成每次消费都是从最新的开始读 初始化找不到初始化的offset //默认使用的是最新的 可配置 val conf: SparkConf = n...原创 2019-03-18 20:47:31 · 375 阅读 · 0 评论 -
sparkstream和kafka的低级消费者(保存在ZK和Mysql两种)
写了两套方法,一套保存在zk上,一套保存在mysql里面/** * @author wade * @create 2019-03-14 9:16 */object LowerKafkaSource { def fromOffsets(kafkaCluster: KafkaCluster, groupId: String, topic: String): Map[T...原创 2019-03-18 20:51:01 · 263 阅读 · 0 评论 -
关于sparkstream代码更改,造成从ck里面启动不了了
当Spark Streaming的代码修改后启动时(directStream的高级api,信息保存在ck中),反序列化Checkpoint目录中的数据失败,所以Kafka offset会丢失,此时不知道从哪里消费Kafka的数据,所以我们要将Kafka offset保存到ZooKeeper中一份,当Spark Streaming优雅停止后,删除Checkpoint目录然后从ZooK...原创 2019-03-22 20:53:09 · 219 阅读 · 0 评论 -
SparkStreaming的ck
一个 Streaming Application 往往需要7*24不间断的跑,所以需要有抵御意外的能力(比如机器或者系统挂掉,JVM crash等)。为了让这成为可能,Spark Streaming需要 Checkpoint 足够多信息至一个具有容错设计的存储系统才能让Driver 从失败中恢复。Spark Streaming 会 Checkpoint 两种类型的数据。Metadata(元数据...原创 2019-03-22 20:55:08 · 308 阅读 · 0 评论 -
sparkstreaming向mysql写数据
注意最后为什么使用了 rdd 的foreachPartition()package day5.KafkaSourceimport java.sql.{Connection, PreparedStatement}import kafka.serializer.StringDecoderimport org.apache.kafka.clients.consumer.Consum...原创 2019-04-12 15:55:22 · 450 阅读 · 0 评论