spark操作

创建sparksession

支持hive
val spark = SparkSession.builder().appName(" PlaceCapacity").config("spark.some.config.option", "some-value")
  .config("spark.sql.hive.filesourcePartitionFileCacheSize", 500 * 1024 * 1024).enableHiveSupport().getOrCreate()

本地测试

val spark = SparkSession.builder().appName(" PlaceCapacity").master("local[2]").getOrCreate()

导入隐士转换(用于flatmap返回以及rdd与df直接转换)

import spark.implicits._

如果不定义汇报一些关于implicits的错误

写入数据到redis

data_to_redis.foreachPartition(x => {

  val jedis = RedisSentinelCluster.bulider()
  try {
    val pipeline = jedis.pipelined()
    while (x.hasNext) {
      val row = x.next()
      val key = "route:"+row.getAs("key").toString 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark可以通过使用SparkSession和相关的API来操作数据库。在读取数据时,可以使用`spark.read.format("jdbc")`方法来指定数据源为jdbc,并通过`.option()`方法设置相关的连接参数,如URL、驱动程序、表名、用户名和密码等。例如,以下是使用SparkSession读取MySQL数据库中的student表的代码示例: ```scala import org.apache.spark.sql.SparkSession object SparkSQLTestJDBC { def main(args: Array\[String\]): Unit = { // 创建SparkSession val spark = SparkSession.builder().master("local").appName("sparkSQLTest").getOrCreate() // 读取数据 val studentDF = spark.read.format("jdbc") .option("url", "jdbc:mysql://10.10.10.10:3306/dbName?serverTimezone=GMT") // IP和数据库名 .option("driver", "com.mysql.jdbc.Driver") .option("dbtable", "student") // 表名 .option("user", "root") // 用户名 .option("password", "123456") // 密码 .load() // 显示数据 studentDF.show() // 停止SparkSession spark.stop() } } ``` 在写入数据时,可以使用`DataFrame.write.format("jdbc")`方法来指定写入的数据源为jdbc,并通过`.option()`方法设置相关的连接参数和写入模式等。具体的代码示例可以根据具体的需求进行编写。 需要注意的是,Spark 2.0之后的版本可以直接使用SparkSession替代SQLContext进行数据库操作,但为了向下兼容,SQLContext仍然保留。因此,可以根据具体的需求选择使用SparkSession或SQLContext来操作数据库。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* [spark学习8.1:sparkSQL的数据库操作](https://blog.csdn.net/hzp666/article/details/122324639)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Spark数据库操作初步——Spark开发学习笔记(三)](https://blog.csdn.net/weixin_44195757/article/details/103294126)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值