spark
daimin1
这个作者很懒,什么都没留下…
展开
-
spark Streaming 实时流
producer类(java)package cn.kgc.stock;import org.apache.kafka.clients.producer.KafkaProducer;import org.apache.kafka.clients.producer.ProducerRecord;import org.apache.kafka.clients.producer.RecordMetadata;import java.util.Properties;import java.util.原创 2021-08-01 01:10:02 · 98 阅读 · 0 评论 -
spark生产者和消费者(附完整代码)
创建工程scala maven添加依赖//版本号 <scala.version>2.12.10</scala.version> <spark.version>3.0.1</spark.version> <spark.scala.version>2.12</spark.scala.version><!-- scala--> <dependency> <gr原创 2021-08-01 01:05:15 · 448 阅读 · 0 评论 -
spark 操作 hive
依赖就不贴了,嘻嘻object SparkHive extends App { val spark: SparkSession = SparkSession.builder() .master("local[*]") .appName("spark_hive") .enableHiveSupport() .getOrCreate() //读取hive中数据表 /*spark.sql("select * from kb12.testsqoop")原创 2021-08-01 00:57:14 · 183 阅读 · 0 评论 -
spark处理本地文件数据
/**spark 根据本地文件来处理数据样例类+RDD创建DataFrame*/具体代码如下:object SparkFile { case class Record(shopId:String,date:String,volume:String) def main(args: Array[String]): Unit = { val spark: SparkSession = SparkSession.builder() .master("local[*]").a原创 2021-08-01 00:52:52 · 473 阅读 · 0 评论