Spark 添加复用JDBC Schema功能

原创 2015年11月18日 11:19:29


1)   修改原因

  用户需要阅读大量相同的数据库表,比如相同schema的表有1000张(比如对mysql进行分表分库)需要全读,每次建立dataframe的时候需要通过jdbcrelation去查询每一张表的schema,需要消耗了大量时间。本文对提出一种修改办法,如果用户知道表的sechema相同,可以使用sechema复用功能。

 

2)   代码流程

val df = sqlContext.read().format("jdbc").options(dfOptions).load();

->resolved= ResolvedDataSource(

      sqlContext,

      userSpecifiedSchema =userSpecifiedSchema,

      partitionColumns = Array.empty[String],

      provider = source,

      options = extraOptions.toMap)  //解析数据源,获取jdbc、parquet、josn的schema参数

->dataSource.createRelation(sqlContext,new CaseInsensitiveMap(options)) //传入options

->JDBCRelation(url, table, parts, properties)(sqlContext)  //获取jdbc的relation

->override val schema= JDBCRDD.resolveTable(url, table, properties)  //获取schema

->conn.prepareStatement(s"SELECT * FROM $table WHERE1=0").executeQuery() //直接读取database,需要优化

 

3)   修改方法

在用户知道schema的情况下,没有必要重复获取schema;

用户定义是否需要重复使用schema,修改代码流程最小;

修改方法:

a)      用户通过Options传入需要复用schema的开关:

   dfOptions.put("jdbcschemakey","sparkourtest");

b)     建立一个hashtable,保存已经获取的shema

val schemaHashTable= newjava.util.HashMap[String,StructType]()

c)      schema获取流程:


4)   修改代码

29a30

> import org.apache.spark.Logging

40c41

< private[sql] object JDBCRelation {

---

> private[sql] object JDBCRelation{

48a50,55

>

>

>   // add by Ricky for get same table schema

>

>   val schemaHashTable= new java.util.HashMap[String,StructType]()

>

117c124

< private[sql] case class JDBCRelation(

---

> private[sql] case class JDBCRelation  (

124c131

<   with InsertableRelation {

---

>   with InsertableRelation with Logging{

128c135,160

<   override val schema: StructType = JDBCRDD.resolveTable(url, table, properties)

---

>

>   // add by Ricky for get same table schema

>   def  getSchema():StructType={

>     //val schemaKey = properties.getProperty("jdbcSchemaKey")

>     val schemaKey = properties.getProperty("jdbcschemakey")

>     if (schemaKey != null) {

>       val schemaStored = JDBCRelation.schemaHashTable.get(schemaKey)

>       if (schemaStored != null) {

>         schemaStored

>       } else {

>         val schemaStored = JDBCRDD.resolveTable(url, table, properties)

>         logInfo("schemaKey configed,schemaHashTable empty,now put  "+schemaKey.toString)

>         JDBCRelation.schemaHashTable.put(schemaKey, schemaStored)

>         schemaStored

>       }

>     }

>     else

>     {

>       JDBCRDD.resolveTable(url, table, properties)

>     }

>

>   }

>

>   override val schema: StructType = getSchema()

> // end by Ricky

> //  override val schema: StructType = JDBCRDD.resolveTable(url, table, properties)

版权声明:本文为博主原创文章,未经博主允许不得转载。

相关文章推荐

Spark大数据常见错误分享总结(来自苏宁)

Spark trouble shooting 经验分享 错误总结

jdbc中关于postgresql schema的配置

经常有人会问这问题,其实不难: jdbc:postgresql://localhost:5432/mydatabase?searchpath=myschema 看到search...
  • cnhome
  • cnhome
  • 2012-07-10 10:49
  • 2099

org.hibernate.tool.schema.spi.CommandAcceptanceException: Error executing DDL via JDBC Statement错误

错误详情org.hibernate.tool.schema.spi.CommandAcceptanceException: Error executing DDL via JDBC Statement...

spark写mysql解决schema不一致问题的简单方法

http://blog.csdn.net/zhong_han_jun/article/details/50855720 http://3iter.com/2015/12/10/Spark-SQL-%E...

Spark中DataFrame的schema讲解

代码+图文讲解Spark中DataFrame的schema

黑马程序员 JDBC_编写一个基本的连接池来实现连接的复用,优化工作(李勇老师)

在数据库的连接中,创建连接是最耗费时间的,所以对创建连接的优化是一项基本的工作。就像建立一座桥一样,建完了,不拆掉,放回池里,供其他线程使用。 数据源的建立: public class M...

JDBC学习之路(十)编写一个基本的连接池来实现连接的复用

众所周知,在JDBC创建或者使用的过程中,第一步创建连接是最复杂的也是最耗费时间的,因为它是一个网络操 作,需要不断的去尝试连接地址,所以建立好一个连接以后仅仅发送少量的sql语句就将其关闭是很不划...

黑马程序员:装饰类的作用——增强被装饰类的方法的功能(利用组合实现复用)

---------------------- ASP.Net+Unity开发、.Net培训、期待与您交流! ----------------------
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)