java spark dataset_java spark list 转为 RDD 转为 dataset 写入表中

该示例展示了如何使用Java Spark将从数据库读取的数据集经过处理后,转化为RDD,进一步转换为Dataset,并最终将数据写入到Hive表中。首先通过SparkSession读取数据,去除重复项,然后遍历处理得到的列表,调用外部接口获取数据,解析JSON并存储结构化信息。接着将处理后的数据转换为RDD,注册为临时表,最后插入到目标数据库表中。
摘要由CSDN通过智能技术生成

package com.example.demo;

import java.util.ArrayList;

import java.util.Arrays;

import java.util.HashMap;

import java.util.List;

import java.util.Map;

import org.apache.spark.api.java.JavaRDD;

import org.apache.spark.api.java.JavaSparkContext;

import org.apache.spark.sql.Dataset;

import org.apache.spark.sql.Row;

import org.apache.spark.sql.SQLContext;

import org.apache.spark.sql.SparkSession;

public class DemoApplication {

public static void main(String[] args) {

///*-----------------------线上调用方式--------------------------*/

// 读入店铺id数据

SparkSession spark = SparkSession.builder().appName("demo_spark").enableHiveSupport().getOrCreate();

Dataset vender_set = spark.sql("select pop_vender_id from app.app_sjzt_payout_apply_with_order where dt = '2019-08-05' and pop_vender_id is not null");

System.out.println( "数据读取 OK" );

JavaSparkContext sc = new JavaSparkContext(spark.sparkContext());

//JavaSparkContext sc = new JavaSparkContext();

SQLContext sqlContext = new SQLContext(sc);

// 将数据去重,转换成 List 格式

vender_set = vender_set.distinct();

vender_set = vender_set.na().fill(0L);

JavaRDD vender= vender_set.toJavaRDD();

List vender_list = vender.collect();

// 遍历商家id,调用jsf接口,创建list 保存返回数据

List list_temp = new ArrayList();

for(Row row:vender_list) {

String id = row.getString(0);

String result = service.venderDownAmountList(id);

System.out.println( "接口调用返回值 OK" );

// 解析json串 ,按照JSONObject 和 JSONArray 一层一层解析 并过返回滤数据

JSONObject jsonOBJ = JSON.parseObject(result);

JSONArray data = jsonOBJ.getJSONArray("data");

if (data != null) {

JSONObject data_all = data.getJSONObject(0);

double amount = data_all.getDouble("jfDownAmount");

// 将商家id 和 倒挂金额存下来

list_temp.add("{\"vender_id\":"+id+",\"amount\":"+amount+"}");

}

else {

continue;

}

System.out.println( "解析 OK" );

}

// list 转为 RDD

JavaRDD venderRDD = sc.parallelize(list_temp);

// 注册成表

Dataset vender_table = sqlContext.read().json(venderRDD);

vender_table.registerTempTable("vender");

System.out.println( "注册表 OK" );

// 写入数据库

spark.sql("insert overwrite table dev.dev_jypt_vender_dropaway_amount select vender.vender_id,vender.amount from vender");

System.out.println( "写入数据表 OK" );

sc.stop();

System.out.println( "Hello World!" );

}

}

好的,DatasetSpark 2.0引入的一个新的API,它是强类型的数据集合,旨在弥补DataFrame和RDD之间的差距,同时提供类型安全和面向对象的编程模型。 与DataFrame不同,Dataset不仅提供了类似于SQL的查询功能,还提供了更多的面向对象的API,因此更适合于开发人员进行复杂的数据分析和操作。 Dataset还具有更好的类型安全性,因为它们是强类型的,这意味着编译器可以在编译时捕获类型不匹配的错误,而不是在运行时抛出异常。 在使用Dataset时,我们可以使用Scala或Java编写类型安全的代码,并在运行时获得更好的性能。 下面是一个简单的Java示例,演示如何使用Dataset: ``` // 创建一个SparkSession对象 SparkSession spark = SparkSession.builder() .appName("Java Dataset Example") .master("local") .getOrCreate(); // 读取一个CSV文件,并将其换为Dataset Dataset<Row> df = spark.read().format("csv") .option("header", "true") .load("path/to/file.csv"); // 将Dataset换为类型安全的Java对象 Encoder<MyObject> myObjectEncoder = Encoders.bean(MyObject.class); Dataset<MyObject> myObjects = df.as(myObjectEncoder); // 进行复杂的操作 Dataset<MyObject> filtered = myObjects.filter(myObject -> myObject.getAge() > 18); // 将结果保存到文件中 filtered.write().format("csv").save("path/to/output"); ``` 在这个示例中,我们首先读取一个CSV文件,并将其换为DataFrame。然后,我们使用Encoder将DataFrame换为类型安全的Java对象。接着,我们进行过滤操作,只选择年龄大于18岁的对象,并将结果保存到文件中。 希望这个简单的示例可以帮助你了解如何使用Dataset进行数据操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值