Spark中获取Jdbc的RDD有两种方式:一种是内置了JdbcRDD类,通过new该类就能对通过Jdbc读取数据并且转换成Rdd,另一种是通过SparkSQL中SQLContext jdbc方法获取DataFrame
- 其中第一种方法在1.3和1.5基本一样,其构造函数如下:
class JdbcRDD[T: ClassTag](
sc: SparkContext,
getConnection: () => Connection,
sql: String,
lowerBound: Long,
upperBound: Long,
numPartitions: Int,
mapRow: (

本文介绍了Spark中通过Jdbc获取数据的两种方式:一是使用内置的JdbcRDD类,但该方法对SQL语句的格式有特定要求,限制了其应用场景;二是利用SparkSQL的SQLContext jdbc方法,返回DataFrame,提供更大的灵活性。通过实例详细解释了每种方法的使用步骤和注意事项。
最低0.47元/天 解锁文章
913

被折叠的 条评论
为什么被折叠?



